ญี่ปุ่นออกแนวทางพัฒนาระบบป้องกันภัยที่ใช้ AI เน้นความปลอดภัย-จริยธรรม

กระทรวงกลาโหมญี่ปุ่นประกาศแนวทางเพื่อการพัฒนาระบบป้องกันที่ควบคุมด้วยปัญญาประดิษฐ์ (AI) อย่างปลอดภัย โดยมุ่งแก้ไขข้อกังวลด้านจริยธรรมเกี่ยวกับอาวุธที่สามารถปฏิบัติการได้โดยไม่ต้องมีมนุษย์ควบคุมโดยตรง

เก็น นาคาทานิ รัฐมนตรีกลาโหมญี่ปุ่นกล่าวในวันนี้ (6 มิ.ย.) ว่า แนวทางดังกล่าวระบุขั้นตอนปฏิบัติในกระบวนการวิจัยและพัฒนาอุปกรณ์ป้องกันภัย พร้อมเรียกร้องให้มีการจัดประเภทระบบอย่างรอบคอบ ตรวจสอบกฎหมายและนโยบายให้เป็นไปตามข้อกำหนด และประเมินความน่าเชื่อถือของระบบในปฏิบัติการจริง

นาคาทานิระบุว่า แนวทางนี้มีเป้าหมายเพื่อ “ลดความเสี่ยงในการใช้ AI พร้อมกับเพิ่มประโยชน์สูงสุด” อีกทั้งยังช่วยสร้างความมั่นใจให้กับภาคเอกชน โดยกระทรวงฯ จะส่งเสริมการวิจัยและพัฒนาอย่างรับผิดชอบ

นอกจากนี้ กระทรวงกลาโหมจะตรวจสอบเพื่อให้มั่นใจว่าระบบอาวุธเหล่านี้สอดคล้องกับข้อกำหนด เช่น มีความรับผิดชอบจากมนุษย์อย่างชัดเจนและมีความปลอดภัยในการใช้งาน พร้อมจัดประเภทอาวุธตามระดับความเสี่ยงเป็น “สูง” หรือ “ต่ำ”

หากจัดอยู่ในกลุ่มความเสี่ยงสูงเนื่องจาก AI มีผลต่อความสามารถในการทำลายล้าง กระทรวงฯ จะประเมินว่าอุปกรณ์ดังกล่าวเป็นไปตามกฎหมายระหว่างประเทศและกฎหมายในประเทศ อยู่ภายใต้การควบคุมของมนุษย์ และไม่ใช่อาวุธร้ายแรงที่ทำงานเองได้โดยสมบูรณ์หรือไม่

สำนักข่าวเกียวโดรายงานว่า ความกังวลทั่วโลกเกี่ยวกับอาวุธอัตโนมัติที่ใช้ AI กำลังเพิ่มสูงขึ้น เนื่องจากโดรนติดอาวุธถูกนำมาใช้อย่างแพร่หลายในสงครามระหว่างรัสเซียกับยูเครน รวมถึงความขัดแย้งในตะวันออกกลาง

โดย สำนักข่าวอินโฟเควสท์ (06 มิ.ย. 68)

Tags: , ,