Get in my Think Art.

AI และความชอบธรรม: รัฐบาลในยุคเครื่องจักร

AI และความชอบธรรม: รัฐบาลในยุคเครื่องจักร

AI และความชอบธรรม: รัฐบาลในยุคเครื่องจักร

jumbo jili

Michael Hicks นักเศรษฐศาสตร์ตั้งข้อสังเกตว่าในช่วงสามทศวรรษที่ผ่านมาประมาณ80% ของการสูญเสียงานในอเมริกาเกิดจากความก้าวหน้าทางเทคโนโลยีในภาคการผลิต การย้ายถิ่นฐานยังคงเป็นแพะรับบาปซึ่งความโกรธส่วนใหญ่เกี่ยวกับการว่างงานที่เพิ่มขึ้นถูกชี้นำ การเพิ่มขึ้นของปัญญาประดิษฐ์คาดว่าจะนำมาซึ่งการเพิ่มผลผลิตทางเศรษฐกิจและนวัตกรรมสำหรับประเทศที่ร่ำรวยที่สุด แต่ก็จะเปลี่ยนโลกของการทำงานได้อย่างน่าทึ่ง นักวิทยาศาสตร์บางคนเตือนว่า AI อาจนำไปสู่การว่างงานจำนวนมากและเกิดการแบ่งขั้วของค่าจ้าง

สล็อต

นอกจากนี้ยังมีการต่อต้านอย่างชัดเจนต่อเทคโนแครตในรัฐบาล ไม่ว่าจะเป็นใน 10 Downing St. ในลอนดอน ในทำเนียบขาว หรือที่อื่น ๆ ชนชั้นสูงเหล่านี้ถูกกล่าวหาว่าอยู่ห่างไกลจากชีวิตของพลเมืองทุกวันจนนโยบายของพวกเขาอาจมาจากมิติที่แตกต่างกันเช่นกัน
อัลกอริธึมเป็นเทคโนแครตขั้นสูงสุด เนื่องจากบางครั้งสามารถสร้างขึ้นจากแบบจำลองการขยายขนาดสูงสุดและตรรกะแบบเปลื้องผ้าซึ่งถูกมองว่าห่างไกลจากความเป็นจริงของชีวิตมนุษย์ ยิ่งไปกว่านั้น อัลกอริธึมไม่ใช่มนุษย์ จึงไม่น่าแปลกใจเลยที่ผู้คนจะกลัวผลลัพธ์ที่เลวร้ายหากอัลกอริทึมพัฒนานโยบาย เบิกจ่ายผลประโยชน์ หรือกำหนดแนวโน้มที่จะกระทำความผิดซ้ำในกระบวนการทางอาญา
ความจริงของผลกระทบของ AI ต่อสังคมน่าจะอยู่ระหว่างการคาดการณ์ของ “นักเทคโนโลยี” และ “นักเทคโนโลยี” ไม่ว่าจะอยู่ที่ใด การนำปัญญาประดิษฐ์มาใช้โดยรัฐบาลทำให้เกิดคำถามที่สำคัญเกี่ยวกับความชอบธรรมของรัฐบาล
ความไว้วางใจเป็นสกุลเงินของความชอบธรรม รัฐบาลถูกมองว่าชอบด้วยกฎหมายเมื่อประชาชนไว้วางใจให้ตัดสินใจแทนตน เมื่อรัฐบาลถูกมองว่าชอบด้วยกฎหมาย ประชาชนจะยินยอมให้ใช้อำนาจบีบบังคับของรัฐบาลเท่านั้น ความไว้วางใจนี้สร้างขึ้นเมื่อเห็นว่ารัฐบาลกำลังกำหนดนโยบายและการตัดสินใจที่เป็นประโยชน์สูงสุดต่อพลเมืองของตน มาตรการต่างๆ ทั่วโลกแสดงให้เห็นว่าความไว้วางใจในรัฐบาลกำลังลดลง ส่วนหนึ่งเป็นเพราะรัฐบาลไม่ได้มอบการเติบโตทางเศรษฐกิจแบบกระจายอย่างเท่าเทียมกันตามที่พลเมืองต้องการ ท่ามกลางความรู้สึกที่เปลี่ยนไปเหล่านี้ที่มีต่อรัฐบาลว่าการใช้งานปัญญาประดิษฐ์ของภาครัฐกำลังได้รับความนิยม
AI จะเพิ่มผลิตภาพในเศรษฐกิจที่กว้างขึ้นและในภาครัฐ แต่ประสิทธิภาพที่เพิ่มขึ้นเหล่านี้อาจไม่ได้รับประโยชน์ที่ถูกต้องตามกฎหมายอย่างที่คาดไว้ นี่เป็นเพราะว่ารัฐบาลต้องใส่ใจมากกว่าแค่เรื่องสำคัญ และนี่เป็นสิ่งที่ดี ในรัฐบาลประชาธิปไตย การบอกคนว่างงานว่าเศรษฐกิจกำลังเติบโตไม่เพียงพอ การลงคะแนนเสียงมีความสำคัญ และหากพวกเขาถูกทิ้งไว้ข้างหลังเมื่อระบบอัตโนมัติเกิดขึ้น พวกเขาอาจตั้งคำถามถึงความชอบธรรมของรัฐบาล โดยเฉพาะอย่างยิ่งหากมีความล้มเหลวในการบรรเทาการว่างงานที่คาดไว้บางส่วนที่อาจเป็นไปตามระบบอัตโนมัติของ AI
David Autor นักเศรษฐศาสตร์ชาวอเมริกันให้เหตุผลว่าปัญญาประดิษฐ์ เช่นเดียวกับความก้าวหน้าทางเทคโนโลยีทั้งหมดที่เกิดขึ้นก่อนหน้านั้น ไม่น่าจะนำไปสู่การลดจำนวนงานที่มีอยู่ในระบบเศรษฐกิจ เขาให้เหตุผลว่าระบบอัตโนมัติช่วยเสริมแรงงานด้วยการเพิ่มผลผลิตในลักษณะที่นำไปสู่ความต้องการแรงงานที่สูงขึ้นและมีปฏิสัมพันธ์กับการปรับตัวในการจัดหาแรงงาน แม้ว่า Autor จะระมัดระวังเกี่ยวกับงานที่มีรายได้ปานกลางและการแบ่งขั้วของค่าจ้างซึ่งมักเป็นส่วนหนึ่งของความทันสมัย
หากรัฐบาลต้องรักษาความชอบธรรมในสายตาของประชากรที่ถูกทอดทิ้ง รัฐบาลจำเป็นต้องเตรียมแนวทางในการรับมือกับความท้าทายทางสังคมและประชากรของโลกที่ AI เป็นส่วนหนึ่งของชีวิตประจำวัน
การทำงานที่ Open Phil . เป็นอย่างไร
ฉันคิดว่าเราเริ่มต้นจากวิถีการทำงานร่วมกันมากขึ้น แล้วโควิดก็เกิดขึ้น คลื่นการจ้างงานล่าสุดมีการจ้างงานทั่วไปจำนวนมาก และฉันคิดว่าตอนนี้ Open Phil มีกลุ่มคนสำคัญที่มีความสำคัญมากกว่าที่เคยเป็นมา ก่อนหน้านี้ฉันคิดว่ามีเพียงไม่กี่คนเท่านั้น และเป็นเรื่องดีเพราะมีความลื่นไหลมากขึ้นในสิ่งที่คนเหล่านั้นทำงาน ดังนั้นจึงมีโอกาสมากขึ้นสำหรับการทำงานร่วมกันครั้งเดียวแบบไม่เป็นทางการมากกว่าที่มีระหว่างเจ้าหน้าที่ของโปรแกรมด้วยกันหรือผู้เชี่ยวชาญทั่วไปกับเจ้าหน้าที่ของโปรแกรม
ดังนั้นความรู้สึกร่วมมือ ความสามัคคี และความเป็นเพื่อนร่วมงานส่วนใหญ่จึงถูกขับเคลื่อนด้วยความชอบ แต่ละส่วนขององค์กรที่เงียบงันนี้มีมวลวิกฤตเป็นของตัวเองหรือไม่ และฉันรู้สึกว่าคำตอบไม่ใช่สำหรับส่วนใหญ่ขององค์กร แต่เมื่อเร็ว ๆ นี้กลุ่มคนทั่วไป – ทั้งในด้านระยะยาวและระยะใกล้รวมกัน – มีคนมากขึ้น มีโอกาสมากขึ้นสำหรับความคิดที่จะตีกลับ และความร่วมมือที่เหมาะสม กว่าที่เคยมีมา และฉันหวังว่าเมื่อเราโตขึ้น และเมื่อแต่ละส่วนใหญ่ขึ้น สิ่งนั้นก็จะเป็นจริงมากขึ้นเรื่อยๆ
ตั้งแต่ปี พ.ศ. 2413 ถึง พ.ศ. 2493 การนำไฟฟ้าเข้ามาเปลี่ยนชีวิตในสหรัฐอเมริกาและสหราชอาณาจักร เนื่องจากผู้คนสามารถเข้าถึงแสงสว่าง วิทยุ และเครื่องใช้ในครัวเรือนที่หลากหลายเป็นครั้งแรก ไฟฟ้ากลายเป็นเทคโนโลยีเอนกประสงค์ที่สามารถช่วยคนได้เกือบทุกอย่าง
บางคนคิดว่าแมชชีนเลิร์นนิงสามารถเปลี่ยนแปลงชีวิตในศตวรรษที่ 21 ในลักษณะเดียวกันได้
นอกเหนือจากการเปลี่ยนแปลงชีวิตประจำวันอย่างมากมาย เทคโนโลยีเพื่อวัตถุประสงค์ทั่วไปในอดีตได้เปลี่ยนธรรมชาติของสงครามด้วย ตัวอย่างเช่น เมื่อกระแสไฟฟ้าเข้าสู่สนามรบ ผู้บังคับบัญชาสามารถสื่อสารกับหน่วยที่อยู่ห่างไกลในสนามได้อย่างรวดเร็ว
การรักษาความปลอดภัยระหว่างประเทศจะเปลี่ยนไปอย่างไรหากผลกระทบของการเรียนรู้ของเครื่องมีความคล้ายคลึงกันในขอบเขตของกระแสไฟฟ้า? แขกของวันนี้ — Helen Toner — เพิ่งช่วยพบศูนย์ความปลอดภัยและเทคโนโลยีเกิดใหม่ที่มหาวิทยาลัยจอร์จทาวน์ เพื่อช่วยผู้กำหนดนโยบายเตรียมพร้อมสำหรับการเปลี่ยนแปลงทางเทคนิคที่ก่อกวนใดๆ ที่อาจคุกคามสันติภาพระหว่างประเทศ
จุดสนใจแรกของพวกเขาคือแมชชีนเลิร์นนิง (ML) ซึ่งเป็นเทคโนโลยีที่ช่วยให้คอมพิวเตอร์จดจำรูปแบบ เรียนรู้จากรูปแบบ และพัฒนา ‘สัญชาตญาณ’ ที่แจ้งการตัดสินใจของพวกเขาเกี่ยวกับกรณีในอนาคต นี่คือสิ่งที่มนุษย์ทำอยู่ตลอดเวลา ไม่ว่าเราจะเล่นเทนนิส อ่านใบหน้าของใครบางคน วินิจฉัยผู้ป่วย หรือค้นหาว่าแนวคิดทางธุรกิจใดที่น่าจะประสบความสำเร็จ
บางครั้งอัลกอริธึม ML เหล่านี้อาจดูมีความเข้าใจอย่างน่าประหลาด และจะค่อยๆ ดีขึ้นเมื่อเวลาผ่านไปเท่านั้น ท้ายที่สุดแล้ว อัลกอริธึม ML ที่หลากหลายสามารถช่วยเราในการตัดสินใจได้ทุกประเภท เช่นเดียวกับไฟฟ้าที่ปลุกเรา ทำให้เราดื่มกาแฟ และแปรงฟัน — ทั้งหมดนี้ในห้านาทีแรกของวัน
ความก้าวหน้าอย่างรวดเร็วใน ML และการใช้งานทางทหารในอนาคตจำนวนมาก ทำให้ผู้คนกังวลเกี่ยวกับ ‘การแข่งขันอาวุธ AI’ ระหว่างสหรัฐอเมริกาและจีน Henry Kissinger และอดีต CEO ของ Google Eric Schmidt เพิ่งเขียนว่า AI สามารถ “ทำให้ทุกอย่างไม่เสถียรตั้งแต่นิวเคลียร์ détente ไปจนถึงมิตรภาพของมนุษย์” นักการเมืองบางคนพูดถึงการจัดประเภทและจำกัดการเข้าถึงอัลกอริธึม ML เพื่อไม่ให้ตกไปอยู่ในมือของคนผิด
แต่ถ้าไฟฟ้าเป็นการเปรียบเทียบที่ดีที่สุด คุณอาจถามอย่างมีเหตุผลว่า มีการแข่งขันทางอาวุธในไฟฟ้าในศตวรรษที่ 19 หรือไม่? ที่จะมีเหตุผลใด ๆ ? และอาจมีใครบางคนเปลี่ยนเส้นทางของประวัติศาสตร์ด้วยการเปลี่ยนผู้ที่ได้รับไฟฟ้าก่อนและวิธีการใช้ไฟฟ้าหรือนั่นคือจินตนาการ?

สล็อตออนไลน์

ในตอนของวันนี้ เราจะหารือเกี่ยวกับขอบเขตการวิจัยในด้านนโยบายและการกำกับดูแล AI ที่เกิดขึ้นใหม่ วิธีการมีอาชีพที่กำหนดนโยบายของรัฐบาลสหรัฐฯ และประสบการณ์ของ Helen ในการใช้ชีวิตและศึกษาในจีน
เราครอบคลุม:
เหตุใดการย้ายถิ่นฐานจึงเป็นนโยบายหลักที่ควรได้รับผลกระทบจากความก้าวหน้าของ AI ในปัจจุบัน
เหตุใดการพูดถึง ‘การแข่งขันทางอาวุธ’ ใน AI จึงเป็นเรื่องก่อนวัยอันควร
สหรัฐฯ จะยังคงเป็นประเทศชั้นนำในด้านการเรียนรู้ของเครื่องในอนาคตอันใกล้ได้อย่างไร
เป็นไปได้หรือไม่ที่จะมีผลที่คาดการณ์ได้ต่อนโยบายของรัฐบาล
Bobby Kennedy อาจส่งผลกระทบเชิงบวกต่อวิกฤตการณ์ขีปนาวุธคิวบาได้อย่างไร
เป็นไปได้ไหมที่จะเป็นผู้เชี่ยวชาญของจีนและยังคงได้รับใบอนุญาตด้านความปลอดภัย
สามารถเข้าถึงอัลกอริธึม ML ได้หรือไม่ หรือนั่นใช้ไม่ได้จริงหรือ
เหตุใดเฮเลนและเพื่อนร่วมงานจึงก่อตั้งศูนย์ความปลอดภัยและเทคโนโลยีเกิดใหม่ และงานใดบ้างที่มีและที่อื่นๆ ในสาขา
AI จะช่วยรักษาเสถียรภาพของระบอบเผด็จการได้หรือไม่
ประเด็นสำคัญ
ฉันคิดว่าบางทีความเข้าใจผิดอย่างใหญ่หลวงเกี่ยวกับอาวุธอัตโนมัติ และผลกระทบทั้งหมดที่ AI น่าจะมีต่อความปลอดภัยและการทำสงคราม ส่วนหนึ่งของอาวุธอิสระโดยเฉพาะเมื่อเทียบกับสิ่งอื่น ๆ ทุกประเภท ฉันคิดว่ามันง่ายมากที่จะนึกภาพหุ่นยนต์ที่อาจทำร้ายคุณในทางใดทางหนึ่ง ไม่ว่าจะเป็นโดรนหรือระบบบนบก ไม่ว่ามันจะเป็นอะไรก็ตาม แต่ฉันคิดว่าในทางปฏิบัติ ในขณะที่ฉันคาดหวังว่าระบบเหล่านั้นจะถูกปรับใช้ และฉันคาดหวังให้พวกเขาเปลี่ยนวิธีการทำสงคราม ฉันคิดว่าจะมีวิธีที่ลึกและละเอียดกว่ามาก ซึ่ง AI จะแทรกซึมผ่านระบบทั้งหมดของเราใน เช่นเดียวกับการใช้ไฟฟ้าในต้นศตวรรษที่ 20 ไม่เพียงแต่สร้างความเป็นไปได้ที่จะมีอาวุธที่ใช้พลังงานไฟฟ้าเท่านั้น แต่มันเปลี่ยนวิธีการทำงานของกองทัพทั้งหมด
และฉันก็คิดเช่นเดียวกันว่า AI จะส่งผลต่อทุกอย่างที่ทำทั้งหมด ดังนั้นฉันคิดว่าการโฟกัสที่อาวุธมากเกินไป ไม่ว่าจะมาจากคนที่มองจากภายนอกและกังวลเกี่ยวกับสิ่งที่อาวุธจะพัฒนา แต่ยังมาจาก มุมมองภายในของการคิดว่ากระทรวงกลาโหมควรทำอย่างไรเกี่ยวกับ AI ฉันคิดว่าสิ่งที่สำคัญที่สุดคือการได้รับโครงสร้างพื้นฐานดิจิทัลตามลำดับ พวกเขากำลังตั้งค่าสัญญาระบบคลาวด์ขนาดใหญ่เพื่อเปลี่ยนวิธีการจัดเก็บข้อมูลและทั้งหมดนั้น เมื่อนึกถึงวิธีที่พวกเขาจัดเก็บข้อมูลและการไหลของข้อมูลระหว่างทีมต่างๆ และวิธีการนำไปใช้ ฉันคิดว่านั่นจะเป็นส่วนสำคัญมากขึ้นเมื่อเรามองย้อนกลับไปใน 50 หรือ 100 ปี สิ่งที่เราคิดว่า AI มี ได้ผลจริง
ฉันคิดว่ามีพื้นที่มากมายสำหรับคนที่สนใจเกี่ยวกับการสร้างผลลัพธ์ที่ดีในโลก และผู้ที่สามารถมีทักษะด้านเทคนิค และจากนั้นก็ทำงานอย่างมีประสิทธิภาพในสภาพแวดล้อมของนโยบาย ฉันแค่คิดว่ามีผลไม้ห้อยอยู่มากมายที่จะปรับเปลี่ยนเล็กน้อยว่าสิ่งต่าง ๆ เป็นอย่างไร ซึ่งไม่ใช่แผนระยะยาวที่มีรายละเอียดมาก แต่จะมีเพียงการพิจารณาที่แตกต่างกันเล็กน้อยในใจ
[NPC4]ตัวอย่างของสิ่งนี้ นี่เป็นตัวอย่างที่ยิ่งใหญ่ แต่ในชีวประวัติของ Robert Caro ของ LBJ มีหัวข้อหนึ่งที่เขาพูดถึงวิกฤตการณ์ขีปนาวุธคิวบา และเขาอธิบายว่า Bobby Kennedy มีอิทธิพลอย่างมากต่อการตัดสินใจ เพียงเพราะเขาคิดถึงผลกระทบต่อพลเรือนมากกว่าที่เขารู้สึกเหมือนกับคนอื่นๆ ในห้อง และมุมมองที่เปลี่ยนไปเล็กน้อยนั้นหมายความว่าแนวทางทั้งหมดของเขาในการแก้ไขปัญหานั้นแตกต่างกันมาก ฉันคิดว่านั่นเป็นประสบการณ์ที่สวยงามครั้งหนึ่งในชีวิต ครั้งหนึ่งในหลายๆ ชีวิต แต่ฉันคิดว่าหลักการพื้นฐานก็เหมือนกัน
หากวันนี้เราทำรายงานการใช้ปัญญาประดิษฐ์ที่เป็นอันตรายอีกครั้ง คำถามที่สำคัญที่สุดในใจของฉันคือเราควรคิดอย่างไรเกี่ยวกับการใช้ AI โดยระบุว่า สำหรับฉันอย่างแน่นอนและผู้สังเกตการณ์ชาวตะวันตกหลายคนนั้นดูผิดจรรยาบรรณอย่างยิ่ง จำได้ว่าตอนจัดเวิร์กช็อปก็มีการพูดคุยกันบ้างว่าเราควรพูดถึง AI ที่ใช้แล้วส่งผลเสีย หรือเราควรจะพูดถึง AI ที่ใช้ในทางที่ผิดกฎหมายหรือว่าควรทำอย่างไร มันจะเป็น? และเราลงเอยด้วยการกำหนดกรอบการใช้งานที่มุ่งร้าย ซึ่งฉันคิดว่าไม่รวมสิ่งต่างๆ เช่น การเฝ้าระวัง เป็นต้น และสำหรับฉัน การพัฒนาครั้งใหญ่ในช่วงสองสามปีที่ผ่านมาได้เห็นวิธีที่รัฐบาลจีนใช้ AI เป็นส่วนเล็กๆ เพียงส่วนเดียว แต่แน่นอนว่าเป็นส่วนหนึ่งของระบอบการสอดแนมที่ใหญ่กว่า โดยเฉพาะอย่างยิ่งในซินเจียง
ฉันคิดว่าถ้าเราจัดเวิร์กชอปอีกครั้งในวันนี้ มันคงยากจริงๆ ในขณะนั้น แรงจูงใจของเราคือคิดว่า “คงจะดีถ้าทำรายงานนี้เป็นแบบระดับโลกและมีการแบ่งปันกัน และโดยพื้นฐานแล้วทุกคนสามารถอยู่เบื้องหลังได้ ว่ามีทั้งคนดีและคนเลว และเรา แค่พูดถึงคนเลวจริงๆที่นี่” และฉันคิดว่าวันนี้มันยากกว่ามากที่จะแยกแยะสิ่งต่าง ๆ อย่างหมดจดและแยกการใช้ AI ออกจากการจัดหมวดหมู่การใช้ AI อย่างจงใจสำหรับจุดสิ้นสุดที่ไม่ดี ซึ่งเป็นสิ่งที่เรากำลังทำอยู่
ในงานรัฐบาลและงานนโยบาย [สิ่งสำคัญคือต้องได้รับ] การซื้อจากผู้ชมที่แตกต่างกันทุกประเภทด้วยความต้องการและเป้าหมายที่แตกต่างกันทุกประเภท ความสามารถในการทำความเข้าใจว่าคุณกำลังพยายามจะเผยแพร่เอกสารนโยบายบางอย่างหรือไม่ ซึ่งจำเป็นต้องลงนามในเอกสารนั้น พวกเขากำลังพิจารณาอะไรอยู่ ตัวอย่างที่ชัดเจนคือ หากคุณทำงานร่วมกับสมาชิกสภาคองเกรส พวกเขาใส่ใจอย่างมากเกี่ยวกับการเลือกตั้งใหม่ นั่นเป็นตัวอย่างที่ตรงไปตรงมา แต่ใครก็ตามที่คุณทำงานด้วยในเอเจนซี่ใดก็ตามจะมีเป้าหมายที่แตกต่างกันซึ่งพวกเขากำลังพยายามทำให้สำเร็จ ดังนั้นหากคุณสามารถลองสำรวจพื้นที่นั้นได้ มันจะเป็นปัญหาสังคมที่ซับซ้อน ฉันคิดว่าการสามารถทำเช่นนั้นได้อย่างมีประสิทธิภาพ มีความแตกต่างอย่างมากระหว่างคนที่สามารถมีผลกระทบในรัฐบาลและผู้ที่จะมีปัญหามากกว่า
เมื่อคุณกำลังสร้างสะพาน ความรับผิดชอบในการดูแลไม่ให้สะพานล้มจะไม่ถูกส่งไปยัง ‘สะพานที่ไม่ล้ม’ วิศวกรเพียงไม่กี่แห่ง ตรวจสอบให้แน่ใจว่าสะพานปลอดภัยต่อการใช้งานและยังคงยืนอยู่ท่ามกลางพายุเป็นหัวใจสำคัญของการออกแบบ และแท้จริงแล้วคือโครงการทั้งหมด
เมื่อพูดถึงปัญญาประดิษฐ์ ผู้แสดงความเห็นมักจะแยกแยะระหว่างการเสริมความสามารถของระบบการเรียนรู้ของเครื่องและการเพิ่มความปลอดภัย แต่สำหรับ Pushmeet Kohli นักวิทยาศาสตร์หลักและหัวหน้าทีมวิจัยของ DeepMind การวิจัยเพื่อทำให้ AI แข็งแกร่งและเชื่อถือได้นั้นไม่ใช่โครงการด้านข้างในการออกแบบ AI มากไปกว่าการรักษาจุดยืนของสะพานเป็นโครงการด้านข้างในการออกแบบสะพาน
ห่างไกลจากการเป็นค่าใช้จ่ายในงาน ‘จริง’ เป็นส่วนสำคัญในการทำให้ระบบ AI ทำงานได้ในทุกแง่มุม เราไม่ต้องการให้ระบบ AI ไม่สอดคล้องกับความตั้งใจของเรา และการพิจารณานั้นจะต้องเกิดขึ้นตลอดการพัฒนา
ศาสตราจารย์สจ๊วต รัสเซลล์ ผู้ร่วมเขียนหนังสือเรียน AI ยอดนิยมได้แนะนำว่าหากมุมมองนี้ถูกต้อง อาจถึงเวลาที่จะเลิกใช้คำว่า ‘การวิจัยด้านความปลอดภัยของ AI’ โดยสิ้นเชิง
ด้วยเป้าหมายของการออกแบบระบบที่ทำในสิ่งที่เราต้องการได้อย่างน่าเชื่อถือ DeepMind ได้เผยแพร่งานเกี่ยวกับความท้าทายทางเทคนิคที่สำคัญสำหรับชุมชน ML เมื่อเร็วๆ นี้
[NPC5]ตัวอย่างเช่น Pushmeet กำลังมองหาวิธีที่มีประสิทธิภาพในการทดสอบว่าระบบเป็นไปตามข้อกำหนดที่ต้องการหรือไม่ แม้ในสถานการณ์ที่แปลกประหลาด โดยการสร้าง ‘ปฏิปักษ์’ ที่พยายามค้นหาความล้มเหลวที่เลวร้ายที่สุดที่เป็นไปได้ในเชิงรุก หากคู่ต่อสู้สามารถระบุอินพุตกรณีที่เลวร้ายที่สุดสำหรับโมเดลหนึ่งๆ ได้อย่างมีประสิทธิภาพ DeepMind สามารถตรวจจับกรณีความล้มเหลวที่เกิดขึ้นได้ยากก่อนที่จะปรับใช้โมเดลในโลกแห่งความเป็นจริง ในอนาคตความผิดพลาดเพียงครั้งเดียวจากระบบปกครองตนเองอาจมีผลที่ตามมาอย่างมาก ซึ่งจะทำให้ความน่าจะเป็นของความล้มเหลวเพียงเล็กน้อยนั้นไม่สามารถยอมรับได้
เขายังมองเข้าไปในการฝึกอบรมรุ่นสเปคที่สอดคล้องกันและการตรวจสอบอย่างเป็นทางการ’ ในขณะที่นักวิจัยอื่น ๆ ที่ DeepMind ทำงานเกี่ยวกับพวกเขาเพื่อความปลอดภัยวาระ AIจะหาวิธีที่จะเข้าใจแรงจูงใจตัวแทน , หลีกเลี่ยงผลข้างเคียงและรูปแบบผลตอบแทน AI