การทหารไม่สามารถพึ่งพา AI สำหรับกลยุทธ์หรือการตัดสิน การศึกษาชี้ให้เห็น

โดย: SD [IP: 172.83.40.xxx]
เมื่อ: 2023-04-26 16:15:32
“ปัญหาหนักๆ ทั้งหมดใน AI แท้จริงแล้วคือปัญหาการตัดสินและข้อมูล และสิ่งที่น่าสนใจเกี่ยวกับเรื่องนี้ก็คือเมื่อคุณเริ่มคิดถึงสงคราม ปัญหาหนักๆ ก็คือกลยุทธ์และความไม่แน่นอน หรือสิ่งที่รู้จักกันดีในชื่อหมอกแห่งสงคราม” กล่าว Jon Lindsay รองศาสตราจารย์ School of Cybersecurity & Privacy และ Sam Nunn School of International Affairs "คุณต้องการความรู้สึกของมนุษย์และตัดสินใจทางศีลธรรม จริยธรรม และสติปัญญาในสถานการณ์ที่สับสน เต็มไปด้วยความน่ากลัว" การตัดสินใจของ AI นั้นขึ้นอยู่กับองค์ประกอบหลัก 4 ส่วน ได้แก่ ข้อมูลเกี่ยวกับสถานการณ์ การตีความข้อมูลเหล่านั้น (หรือการคาดคะเน) การกำหนดวิธีที่ดีที่สุดในการดำเนินการให้สอดคล้องกับเป้าหมายและคุณค่า (หรือการตัดสิน) และการดำเนินการ ความก้าวหน้าของแมชชีนเลิร์นนิงทำให้การคาดการณ์ง่ายขึ้น ซึ่งทำให้ข้อมูลและการตัดสินมีค่ามากยิ่งขึ้น แม้ว่า AI สามารถทำให้ทุกอย่างเป็นอัตโนมัติตั้งแต่การค้าไปจนถึงการขนส่ง แต่การตัดสินเป็นสิ่งที่มนุษย์ต้องเข้าไปแทรกแซง ศาสตราจารย์ Avi Goldfarb แห่งมหาวิทยาลัยโตรอนโตและลินด์เซย์เขียนไว้ในบทความเรื่อง "การทำนายและการตัดสิน: ทำไมปัญญาประดิษฐ์เพิ่มความสำคัญของมนุษย์ในสงคราม" เผยแพร่ในInternationalความปลอดภัย ผู้กำหนดนโยบายหลายคนคิดว่าทหารมนุษย์สามารถถูกแทนที่ด้วยระบบอัตโนมัติ ทำให้ กองทัพ พึ่งพาแรงงานมนุษย์น้อยลงและมีประสิทธิภาพมากขึ้นในสนามรบ สิ่งนี้เรียกว่าทฤษฎีการแทนที่ของ AI แต่ลินด์เซย์และโกลด์ฟาร์บระบุว่าไม่ควรมองว่าเอไอเป็นสิ่งทดแทน แต่ควรเป็นส่วนเสริมของกลยุทธ์ที่มีอยู่ของมนุษย์ “เครื่องจักรนั้นเก่งในการทำนาย แต่พวกมันขึ้นอยู่กับข้อมูลและการตัดสิน และปัญหาที่ยากที่สุดในสงครามคือข้อมูลและกลยุทธ์” เขากล่าว "เงื่อนไขที่ทำให้ AI ทำงานในเชิงพาณิชย์เป็นเงื่อนไขที่ยากที่สุดในสภาพแวดล้อมทางทหารเนื่องจากไม่สามารถคาดเดาได้" ตัวอย่างไฮไลท์ของลินด์เซย์และโกลด์ฟาร์บคือบริษัทเหมืองแร่ Rio Tinto ซึ่งใช้รถบรรทุกไร้คนขับในการขนส่งวัสดุ ลดต้นทุนและความเสี่ยงสำหรับคนขับ มีรูปแบบและแผนที่การรับส่งข้อมูลจำนวนมาก คาดการณ์ได้ และไม่เอนเอียง ซึ่งต้องการการแทรกแซงจากมนุษย์เพียงเล็กน้อย เว้นแต่จะมีการปิดถนนหรือมีสิ่งกีดขวาง อย่างไรก็ตาม สงครามมักขาดข้อมูลที่เป็นกลางจำนวนมาก และการตัดสินเกี่ยวกับวัตถุประสงค์และคุณค่ามักจะเป็นที่ถกเถียงกันโดยเนื้อแท้ แต่นั่นไม่ได้หมายความว่าจะเป็นไปไม่ได้ นักวิจัยให้เหตุผลว่า AI จะใช้งานได้ดีที่สุดในสภาพแวดล้อมที่มีความเสถียรของระบบราชการตามแต่ละงาน "ความตื่นเต้นและความกลัวทั้งหมดเกี่ยวกับหุ่นยนต์สังหารและยานพาหนะที่ทำให้ถึงตายได้ แต่กรณีที่เลวร้ายที่สุดสำหรับ AI ทางทหารในทางปฏิบัติคือปัญหาทางทหารแบบคลาสสิกซึ่งคุณต้องพึ่งพาความคิดสร้างสรรค์และการตีความ" ลินด์เซย์กล่าว "แต่สิ่งที่เราควรดูคือระบบบุคลากร การบริหาร การขนส่ง และการซ่อมแซม" ผลที่ตามมาจากการใช้ AI สำหรับทั้งกองทัพและศัตรู หากมนุษย์เป็นองค์ประกอบหลักในการตัดสินใจว่าเมื่อใดควรใช้ AI ในการทำสงคราม โครงสร้างผู้นำทางทหารและลำดับชั้นอาจเปลี่ยนแปลงได้ตามบุคคลที่รับผิดชอบในการออกแบบและทำความสะอาดระบบข้อมูลและการตัดสินใจเชิงนโยบาย นอกจากนี้ยังหมายความว่าฝ่ายตรงข้ามจะมุ่งประนีประนอมทั้งข้อมูลและการตัดสิน เนื่องจากสิ่งเหล่านี้จะส่งผลกระทบต่อวิถีของสงครามเป็นส่วนใหญ่ การแข่งขันกับ AI อาจผลักดันให้ฝ่ายตรงข้ามจัดการหรือขัดขวางข้อมูลเพื่อให้ตัดสินได้ถูกต้องยิ่งขึ้น ผลก็คือ การแทรกแซงของมนุษย์จะมีความจำเป็นมากยิ่งขึ้น แต่นี่เป็นเพียงจุดเริ่มต้นของการโต้แย้งและนวัตกรรม "ถ้า AI ทำการคาดการณ์โดยอัตโนมัติ นั่นจะทำให้การตัดสินและข้อมูลมีความสำคัญมาก" ลินด์เซย์กล่าว "เราได้ทำให้ปฏิบัติการทางทหารจำนวนมากเป็นไปโดยอัตโนมัติด้วยกองกำลังยานยนต์และอาวุธที่แม่นยำ จากนั้นเราก็ทำการรวบรวมข้อมูลโดยอัตโนมัติด้วยดาวเทียมข่าวกรองและเซ็นเซอร์ และตอนนี้เรากำลังทำให้การคาดการณ์เป็นไปโดยอัตโนมัติด้วย AI ดังนั้น เมื่อใดที่เราจะทำการตัดสินโดยอัตโนมัติ หรือ มีส่วนประกอบของการตัดสินที่ไม่สามารถเป็นไปโดยอัตโนมัติได้หรือไม่"

ชื่อผู้ตอบ:

Visitors: 320,184