Get in my Think Art.

การทำให้ AI ปลอดภัยในโลกที่คาดเดาไม่ได้: บทสัมภาษณ์กับ Thomas G. Dietterich

การทำให้ AI ปลอดภัยในโลกที่คาดเดาไม่ได้: บทสัมภาษณ์กับ Thomas G. Dietterich

การทำให้ AI ปลอดภัยในโลกที่คาดเดาไม่ได้: บทสัมภาษณ์กับ Thomas G. Dietterich

jumbo jili

ระบบ AI ของเราทำงานได้ดีอย่างน่าทึ่งในโลกปิด นั่นเป็นเพราะสภาพแวดล้อมเหล่านี้มีจำนวนตัวแปรที่กำหนดไว้ ทำให้โลกเป็นที่รู้จักและคาดเดาได้อย่างสมบูรณ์แบบ ในสภาพแวดล้อมขนาดเล็กเหล่านี้ เครื่องจะพบเฉพาะวัตถุที่คุ้นเคยเท่านั้น เป็นผลให้พวกเขารู้เสมอว่าพวกเขาควรกระทำและตอบสนองอย่างไร น่าเสียดายที่ระบบเดียวกันนี้จะสับสนอย่างรวดเร็วเมื่อนำไปใช้ในโลกแห่งความเป็นจริง เนื่องจากวัตถุจำนวนมากไม่คุ้นเคย นี่เป็นปัญหาเล็กน้อยเพราะเมื่อระบบ AI สับสน ผลลัพธ์อาจถึงตายได้

สล็อต

ตัวอย่างเช่น ลองพิจารณารถยนต์ที่ขับเองซึ่งพบกับวัตถุแปลกใหม่ ควรเร่งหรือควรช้าลง? หรือพิจารณาระบบอาวุธอัตโนมัติที่มองเห็นความผิดปกติ มันควรจะโจมตีหรือควรจะปิดไฟ? ตัวอย่างแต่ละตัวอย่างเกี่ยวข้องกับการตัดสินใจเรื่องความเป็นและความตาย และเผยให้เห็นว่าทำไม หากเราต้องการปรับใช้ระบบ AI ขั้นสูงในสภาพแวดล้อมจริง เราต้องมั่นใจว่าพวกมันจะทำงานอย่างถูกต้องเมื่อพบวัตถุที่ไม่คุ้นเคย
Thomas G. Dietterichศาสตราจารย์กิตติคุณด้านวิทยาการคอมพิวเตอร์ที่ Oregon State University อธิบายว่าการแก้ปัญหาการระบุตัวตนนี้เริ่มต้นด้วยการทำให้มั่นใจว่าระบบ AI ของเราไม่มั่นใจเกินไป โดยจะรับรู้ได้เมื่อพบวัตถุแปลกปลอมและไม่ระบุให้เข้าใจผิดว่าเป็น สิ่งที่พวกเขาคุ้นเคย เพื่อให้บรรลุสิ่งนี้ Dietterich ยืนยันว่าเราต้องย้ายออกจาก (หรืออย่างน้อยต้องปรับเปลี่ยนอย่างมาก) วิธีการฝึกอบรมการเลือกปฏิบัติที่ครอบงำการวิจัย AI ในปัจจุบัน
อย่างไรก็ตาม ในการทำเช่นนั้น เราต้องจัดการกับ “ปัญหาประเภทเปิด” ก่อน
ทำความเข้าใจกับปัญหาประเภทเปิด
เมื่อขับรถไปตามถนน เราอาจพบสิ่งผิดปกติจำนวนนับไม่ถ้วน บางทีพายุรุนแรงจะเกิดขึ้นและลูกเห็บก็เริ่มตกลงมา บางทีการมองเห็นของเราอาจถูกบดบังด้วยควันหรือหมอกที่มากเกินไป แม้ว่าการเผชิญหน้าเหล่านี้อาจเป็นเรื่องที่ไม่คาดคิด แต่สมองของมนุษย์สามารถวิเคราะห์ข้อมูลใหม่ได้อย่างง่ายดายและตัดสินใจเกี่ยวกับแนวทางปฏิบัติที่เหมาะสม — เราจะจดจำหนังสือพิมพ์ฉบับหนึ่งที่ลอยข้ามถนน และแทนที่จะกระแทกตรงช่วงพักอย่างกะทันหัน ให้ดำเนินต่อไปตามทางของเรา
เนื่องจากวิธีการตั้งโปรแกรม ระบบคอมพิวเตอร์ของเราจึงไม่สามารถทำได้เช่นเดียวกัน
“วิธีที่เราใช้แมชชีนเลิร์นนิงเพื่อสร้างระบบ AI และซอฟต์แวร์ในปัจจุบันมักใช้สิ่งที่เรียกว่า ซึ่งหมายความว่าหากเครื่องจักรพบวัตถุแปลกใหม่ จะถือว่าต้องเป็นหนึ่งในพันสิ่งที่ฝึกฝนมา เป็นผลให้ระบบดังกล่าวจำแนกวัตถุแปลกปลอมทั้งหมดผิด
นี่คือ “ปัญหาประเภทเปิด” ที่ Dietterich และทีมของเขากำลังพยายามแก้ไข โดยเฉพาะอย่างยิ่ง พวกเขากำลังพยายามทำให้แน่ใจว่าเครื่องจักรของเราไม่ได้ทึกทักเอาเองว่าได้พบวัตถุทุกอย่างที่เป็นไปได้ แต่กลับสามารถตรวจจับได้อย่างน่าเชื่อถือ และตอบสนองในที่สุด — หมวดหมู่ใหม่ของวัตถุต่างดาว
Dietterich ตั้งข้อสังเกตว่าจากมุมมองเชิงปฏิบัติ นี่หมายถึงการสร้างอัลกอริธึมการตรวจจับความผิดปกติที่กำหนดคะแนนความผิดปกติให้กับแต่ละวัตถุที่ระบบ AI ตรวจพบ คะแนนนั้นจะต้องเปรียบเทียบกับเกณฑ์ที่ตั้งไว้ และหากคะแนนความผิดปกติเกินเกณฑ์ ระบบจะต้องส่งสัญญาณเตือน Dietterich ระบุว่า เพื่อตอบสนองต่อสัญญาณเตือนนี้ ระบบ AI ควรดำเนินการด้านความปลอดภัยที่กำหนดไว้ล่วงหน้า ตัวอย่างเช่น รถที่ขับเองที่ตรวจจับสิ่งผิดปกติอาจชะลอตัวลงและขับออกไปข้างถนน
การสร้างการรับประกันความปลอดภัยตามทฤษฎี
มีสองความท้าทายในการทำให้วิธีนี้ใช้ได้ผล ประการแรก Dietterich ยืนยันว่าเราต้องการอัลกอริธึมการตรวจจับสิ่งผิดปกติที่ดี ก่อนหน้านี้ เพื่อกำหนดว่าอัลกอริธึมใดทำงานได้ดี ทีมงานได้เปรียบเทียบประสิทธิภาพของอัลกอริธึมการตรวจจับสิ่งผิดปกติที่ล้ำสมัยทั้งแปดกับกลุ่มปัญหาการวัดประสิทธิภาพจำนวนมาก
ความท้าทายที่สองคือการกำหนดเกณฑ์การเตือนเพื่อให้ระบบ AI รับประกันว่าจะตรวจจับเศษส่วนที่ต้องการของวัตถุต่างด้าวเช่น 99% Dietterich กล่าวว่าการกำหนดการตั้งค่าที่เชื่อถือได้สำหรับเกณฑ์นี้เป็นหนึ่งในปัญหาการวิจัยที่ท้าทายที่สุดเนื่องจากมีวัตถุต่างดาวที่ไม่มีที่สิ้นสุด “ปัญหาคือว่าเราไม่สามารถมีป้ายข้อมูลการฝึกอบรมทั้งหมดของคนต่างด้าว หากเรามีข้อมูลดังกล่าว เราจะฝึกตัวแยกประเภทตามข้อมูลที่มีป้ายกำกับนั้น” Dietterich กล่าว
เพื่อหลีกเลี่ยงปัญหาการติดฉลากนี้ ทีมงานสันนิษฐานว่าตัวแยกประเภทมีการเข้าถึงตัวอย่างตัวแทนของ “วัตถุที่สืบค้น” ที่สะท้อนถึงประชากรทางสถิติที่ใหญ่ขึ้น ตัวอย่างดังกล่าวสามารถรับได้โดยรวบรวมข้อมูลจากรถยนต์ที่ขับบนทางหลวงทั่วโลก ตัวอย่างนี้จะรวมส่วนของวัตถุที่ไม่รู้จักบางส่วน และวัตถุที่เหลือจะเป็นของประเภทวัตถุที่รู้จัก
โดยเฉพาะอย่างยิ่ง ข้อมูลในตัวอย่างไม่มีป้ายกำกับ แต่ระบบ AI จะได้รับค่าประมาณเศษส่วนของเอเลี่ยนในกลุ่มตัวอย่าง และด้วยการรวมข้อมูลในตัวอย่างกับข้อมูลการฝึกที่มีป้ายกำกับซึ่งใช้ในการฝึกตัวแยกประเภท อัลกอริทึมใหม่ของทีมจะสามารถเลือกเกณฑ์การแจ้งเตือนที่ดีได้ หากทราบว่าเศษส่วนโดยประมาณของคนต่างด้าวนั้นเป็นค่าที่เกินจริงของเศษส่วนจริง เกณฑ์ที่เลือกจะรับประกันว่าจะตรวจจับเปอร์เซ็นต์เป้าหมายของมนุษย์ต่างดาวได้ (เช่น 99%)
ในท้ายที่สุด วิธีข้างต้นเป็นวิธีแรกที่สามารถให้การรับประกันทางทฤษฎีเกี่ยวกับความปลอดภัยในการตรวจจับวัตถุต่างด้าว และเอกสารรายงานผลได้ถูกนำเสนอที่ ICML 2018 “เราสามารถรับประกันได้ ด้วยความน่าจะเป็นสูงที่เราสามารถหาได้ 99% วัตถุใหม่เหล่านี้ทั้งหมด” Dietterich กล่าว
ในขั้นต่อไปของการวิจัย Dietterich และทีมของเขาวางแผนที่จะเริ่มทดสอบอัลกอริทึมในสภาพแวดล้อมที่ซับซ้อนมากขึ้น จนถึงตอนนี้ พวกเขาดูการจำแนกเป็นหลัก โดยระบบจะดูรูปภาพและจัดประเภท ต่อไปพวกเขาวางแผนที่จะย้ายไปควบคุมตัวแทนเช่นหุ่นยนต์ของรถที่ขับด้วยตนเอง “ในแต่ละช่วงเวลา เพื่อตัดสินใจว่าจะเลือกการดำเนินการใด ระบบของเราจะ ‘การค้นหาแบบมองไปข้างหน้า’ ตามแบบจำลองที่เรียนรู้เกี่ยวกับพฤติกรรมของตัวแทนและสภาพแวดล้อม หากการมองไปข้างหน้ามาถึงรัฐที่ได้รับการจัดอันดับว่าเป็น ‘เอเลี่ยน’ โดยวิธีการของเรา แสดงว่าตัวแทนกำลังจะเข้าสู่ส่วนหนึ่งของพื้นที่ของรัฐที่ไม่สามารถเลือกการกระทำที่ถูกต้องได้” Dietterich กล่าว ในการตอบสนองตามที่กล่าวไว้ก่อนหน้านี้ เจ้าหน้าที่ควรดำเนินการด้านความปลอดภัยและขอความช่วยเหลือจากมนุษย์
แต่การดำเนินการด้านความปลอดภัยนี้ประกอบด้วยอะไรบ้าง?
ตอบสนองต่อมนุษย์ต่างดาว
Dietterich ตั้งข้อสังเกตว่า เมื่อมีการระบุสิ่งผิดปกติและเสียงเตือน ลักษณะของระบบถอยกลับนี้จะขึ้นอยู่กับเครื่องที่เป็นปัญหา เช่น ระบบ AI อยู่ในรถยนต์ที่ขับด้วยตนเองหรืออาวุธอิสระ
เพื่ออธิบายว่าระบบรองเหล่านี้ทำงานอย่างไร Dietterich หันไปใช้รถยนต์ที่ขับเคลื่อนด้วยตนเอง “ในรถยนต์ของ Google หากคอมพิวเตอร์สูญเสียพลังงาน แสดงว่ามีระบบสำรองที่ทำให้รถช้าลงโดยอัตโนมัติและดึงไปไว้ข้างถนน” อย่างไรก็ตาม Dietterich ชี้แจงว่าการหยุดไม่ใช่แนวทางปฏิบัติที่ดีที่สุดเสมอไป บางคนอาจสันนิษฐานได้ว่ารถควรจะหยุดนิ่งหากมีวัตถุที่ไม่สามารถระบุตัวตนได้ข้ามเส้นทางของมัน อย่างไรก็ตาม หากวัตถุที่ไม่สามารถระบุตัวตนได้เกิดเป็นหิมะปกคลุมในวันที่อากาศหนาวจัด การกดปุ่มแตกจะซับซ้อนมากขึ้น ระบบจะต้องคำนึงถึงถนนที่เป็นน้ำแข็ง รถทุกคันที่อาจขับตามหลัง และรถเหล่านี้สามารถเบรกทันเวลาเพื่อหลีกเลี่ยงการชนท้ายรถหรือไม่

สล็อตออนไลน์

แต่ถ้าเราไม่สามารถคาดเดาเหตุการณ์ทุกอย่างได้ เราจะคาดหวังให้โปรแกรมระบบ AI ทำงานอย่างถูกต้องและปลอดภัยได้อย่างไร
น่าเสียดายที่ไม่มีคำตอบง่ายๆ อย่างไรก็ตาม Dietterich ชี้แจงว่ามีแนวทางปฏิบัติที่ดีที่สุดทั่วไปบางประการ “ไม่มีวิธีแก้ไขปัญหาด้านความปลอดภัยที่เป็นสากล แต่เห็นได้ชัดว่ามีการดำเนินการบางอย่างที่ปลอดภัยกว่าวิธีอื่นๆ โดยทั่วไป การกำจัดพลังงานออกจากระบบเป็นความคิดที่ดี” เขากล่าว ในท้ายที่สุด Dietterich ยืนยันว่างานทั้งหมดที่เกี่ยวข้องกับการเขียนโปรแกรม AI ที่ปลอดภัยนั้นจำเป็นต้องพิจารณาว่าเราต้องการให้เครื่องของเราทำงานอย่างไรภายใต้สถานการณ์เฉพาะ และเขาให้เหตุผลว่าเราจำเป็นต้องอธิบายใหม่ว่าเรากำหนดลักษณะของปัญหานี้อย่างไร และมุ่งเน้นที่การบัญชีทั้งหมด ปัจจัยหากเราต้องพัฒนาแนวทางที่ถูกต้อง
ดีเอทเทอริชตั้งข้อสังเกตว่า “เมื่อเราดูปัญหาเหล่านี้ ปัญหาเหล่านี้มักจะถูกจัดอยู่ในหมวดหมู่ของ ‘การตัดสินใจอย่างมีจริยธรรม’ แต่จริงๆ แล้วปัญหาเหล่านี้คือปัญหาที่ซับซ้อนอย่างเหลือเชื่อ พวกเขาพึ่งพาบริบทที่พวกเขากำลังดำเนินการอย่างมาก มนุษย์ นวัตกรรมอื่น ๆ ระบบอัตโนมัติอื่น ๆ และอื่น ๆ ความท้าทายคือการอธิบายอย่างถูกต้องว่าเราต้องการให้ระบบทำงานอย่างไร จากนั้นจึงทำให้แน่ใจว่าการใช้งานของเราสอดคล้องกับข้อกำหนดเหล่านั้นจริงๆ” และเขาสรุปว่า “ความเสี่ยงครั้งใหญ่ในอนาคตของ AI ก็เหมือนกับความเสี่ยงครั้งใหญ่ในระบบซอฟต์แวร์ใดๆ ซึ่งก็คือเราสร้างระบบที่ไม่ถูกต้อง ดังนั้นจึงทำสิ่งที่ผิด Arthur C. Clark ในปี 2001: A Space Odysseyได้มันถูกต้อง Hal 9000 ไม่ได้ ‘โกง’ มันแค่ทำในสิ่งที่มันถูกตั้งโปรแกรมไว้ให้ทำ”
เหตุใดนักวิจัย AI จำนวนมากจึงกังวลเกี่ยวกับอาวุธอิสระที่ร้ายแรง อะไรทำให้อาวุธอิสระเลวร้ายยิ่งกว่าอาวุธอื่น ๆ ที่เรามีในปัจจุบัน? และเหตุใดจึงเป็นเรื่องยากสำหรับประเทศต่างๆ ที่จะมีมติเป็นเอกฉันท์เกี่ยวกับอาวุธที่เป็นอิสระ ไม่น่าแปลกใจเลยที่คำตอบสั้นๆ คือ มันซับซ้อน

jumboslot

ในพอดคาสต์ของเดือนนี้ Ariel ได้พูดคุยกับผู้เชี่ยวชาญจากหลากหลายมุมมองเกี่ยวกับสถานะปัจจุบันของระบบอาวุธทำลายล้างอัตโนมัติ (LAWS) ที่เรากำลังมุ่งหน้าไป และความเป็นไปได้ในการแบนอาวุธเหล่านี้ แขกรับเชิญ ได้แก่ อดีตที่ปรึกษาเพนตากอน Paul Scharre (3:40), ศาสตราจารย์ด้านปัญญาประดิษฐ์ Toby Walsh (40:51), Richard Moyes ผู้ก่อตั้งมาตรา 36 (53:30), ผู้ก่อตั้งCampaign to Stop Killer Robots Mary Wareham และ Bonnie Docherty of Human Rights ดู (1:03:38) และนักจริยธรรมและผู้ร่วมก่อตั้ง คณะกรรมการระหว่างประเทศว่าด้วยการควบคุมอาวุธหุ่นยนต์ปีเตอร์ อาซาโร (1:32:39)
เอเรียล:สวัสดี. ฉันชื่อแอเรียล คอนน์ สถาบันอนาคตแห่งชีวิต อย่างที่คุณอาจเคยเห็นในเดือนนี้ เราได้ประกาศคำมั่นสัญญาต่อต้านอาวุธอัตโนมัติร้ายแรง คำมั่นสัญญาเรียกร้องให้รัฐบาลและผู้นำรัฐบาลสร้างอนาคตด้วยบรรทัดฐาน กฎระเบียบ และกฎหมายระหว่างประเทศที่เข้มงวดซึ่งต่อต้านอาวุธที่ทำลายล้างอัตโนมัติ แต่ในระหว่างนี้ ผู้ลงนามตกลงว่าพวกเขาจะไม่เข้าร่วมหรือสนับสนุนการพัฒนา การผลิต การค้า หรือใช้อาวุธทำลายล้างอัตโนมัติที่ร้ายแรง ในช่วงเวลาของการบันทึกนี้ องค์กรที่เกี่ยวข้องกับ AI กว่า 220 แห่งและบุคคลกว่า 2800 คนได้ลงนาม ผู้ลงนาม ได้แก่ Google DeepMind และผู้ก่อตั้ง University College London, XPRIZE Foundation, Clearpath Robotics, Silicon Valley Robotics, European Association for Artificial Intelligence และสมาคมและองค์กรด้าน AI อื่น ๆ อีกมากมายจากทั่วโลก
แต่ทำไม? เราทุกคนเคยดูหนังและอ่านหนังสือเกี่ยวกับ AI ที่ผิดพลาด แต่ผู้ลงนามส่วนใหญ่ยอมรับว่าสิ่งสุดท้ายที่พวกเขากังวลคือ AI ที่เป็นอันตราย ไม่มีใครคิดว่า Terminator จะอยู่ในอนาคตของเรา เหตุใดผู้คนจำนวนมากในโลกของ AI จึงกังวลเกี่ยวกับอาวุธอิสระที่ร้ายแรง อะไรทำให้อาวุธอิสระเลวร้ายยิ่งกว่าอาวุธอื่น ๆ ที่เรามีในปัจจุบัน? และเหตุใดจึงเป็นเรื่องยากสำหรับประเทศต่างๆ ที่จะมีมติเป็นเอกฉันท์เกี่ยวกับอาวุธที่เป็นอิสระ ไม่น่าแปลกใจเลยที่คำตอบสั้นๆ คือ มันซับซ้อน สำหรับคำตอบที่ยาวขึ้น เรามีพอดคาสต์นี้
สำหรับพอดคาสต์นี้ ฉันได้พูดคุยกับผู้เชี่ยวชาญชั้นนำหกคนเกี่ยวกับอาวุธอิสระ คุณจะได้ยินจากผู้เชี่ยวชาญด้านการป้องกันพอล Scharre ที่เพิ่งปล่อยออกหนังสือกองทัพไม่มี: เขตปกครองตนเองอาวุธและอนาคตของสงคราม เราหารือเกี่ยวกับประวัติศาสตร์ของอาวุธอิสระและกึ่งอิสระ ซึ่งมีขึ้นตั้งแต่สมัยสงครามโลกครั้งที่ 2 รวมถึงประเด็นที่เหมาะสมยิ่งบางประเด็นในปัจจุบันซึ่งมักมีขึ้นเพื่ออภิปราย Toby Walsh นักวิจัย AI พิจารณาอาวุธสังหารอัตโนมัติจากมุมมองทางเทคนิคมากขึ้น โดยพิจารณาถึงผลกระทบของอาวุธอิสระในสังคม และผลกระทบด้านลบที่อาจมีต่อนักวิจัย AI หากใช้เทคโนโลยี AI เพื่อฆ่าผู้คน Richard Moyes กับมาตรา 36ได้บัญญัติวลีที่มีความหมายว่า การควบคุมของมนุษย์ ซึ่งเป็นสิ่งที่การอภิปรายเกี่ยวกับอาวุธทำลายล้างอัตโนมัติที่ร้ายแรงในองค์การสหประชาชาติในขณะนี้มุ่งเน้นไปที่ เขาอธิบายว่านั่นหมายถึงอะไรและเหตุใดจึงสำคัญ แมรีแวร์แฮมและบอนนี่เคอร์ตี้เข้าร่วมจากองค์กรสิทธิมนุษยชนและพวกเขากำลังยังมีแคมเปญเพื่อหยุดฆ่าหุ่นยนต์ พวกเขาพูดถึงผลกระทบด้านมนุษยธรรมของอาวุธอิสระที่ร้ายแรง และอธิบายกระบวนการที่เกิดขึ้นที่องค์การสหประชาชาติในวันนี้ขณะที่ความพยายามไปสู่การห้าม สุดท้าย การสัมภาษณ์ของฉันจบลงที่ Peter Asaro กับคณะกรรมการระหว่างประเทศเพื่อการควบคุมอาวุธหุ่นยนต์และการรณรงค์หยุดหุ่นยนต์นักฆ่า ปีเตอร์พิจารณาปัญหาอาวุธสังหารอัตโนมัติจากจุดยืนทางจริยธรรมและทางกฎหมาย โดยพิจารณาจากผลกระทบของหุ่นยนต์นักฆ่าที่มีต่อทุกสิ่งตั้งแต่ศักดิ์ศรีความเป็นมนุษย์ไปจนถึงอาชญากรรมสงคราม
[NPC5]แต่ฉันจะให้แต่ละคนแนะนำตัวเองได้ดีขึ้นเมื่อเริ่มการสัมภาษณ์ และเนื่องจากพ็อดคาสท์นี้ยาวมาก ในคำอธิบาย เราได้รวมเวลาที่การสัมภาษณ์แต่ละครั้งเริ่มต้นขึ้น เพื่อให้คุณสามารถข้ามไปมาหรือฟังส่วนต่างๆ ได้ง่ายขึ้นเมื่อคุณมีเวลา
จุดสุดท้ายสั้นๆ ที่พูดถึงคือทุกคนใจดีพอที่จะเข้าร่วมในนาทีสุดท้าย ซึ่งหมายความว่าเสียงทั้งหมดไม่สมบูรณ์แบบ ส่วนใหญ่เป็นเรื่องปกติ แต่โปรดอดทนรอ หากคุณได้ยินคนพูดคุยกันในพื้นหลังหรือข้อบกพร่องอื่นๆ ที่คล้ายกัน และสำหรับการสัมภาษณ์ครั้งแรกกับ Paul Scharre