Get in my Think Art.

พอดคาสต์: การนำทางด้านความปลอดภัยของ AI – จากการใช้งานที่เป็นอันตรายไปจนถึงอุบัติเหตุ

พอดคาสต์: การนำทางด้านความปลอดภัยของ AI – จากการใช้งานที่เป็นอันตรายไปจนถึงอุบัติเหตุ

พอดคาสต์: การนำทางด้านความปลอดภัยของ AI – จากการใช้งานที่เป็นอันตรายไปจนถึงอุบัติเหตุ

jumbo jili

การใช้ปัญญาประดิษฐ์อย่างมุ่งร้ายเป็นสิ่งที่หลีกเลี่ยงไม่ได้หรือไม่? หากประวัติศาสตร์ของความก้าวหน้าทางเทคโนโลยีได้สอนอะไรเรา แสดงว่าความก้าวหน้าทางเทคโนโลยีที่ “เป็นประโยชน์” ทุกครั้งสามารถนำมาใช้เพื่อก่อให้เกิดอันตรายได้ เราจะป้องกันไม่ให้นักแสดงที่ไม่ดีใช้เทคโนโลยี AI ที่เป็นประโยชน์อย่างอื่นเพื่อทำร้ายผู้อื่นได้อย่างไร เราจะมั่นใจได้อย่างไรว่าเทคโนโลยี AI ได้รับการออกแบบมาอย่างรอบคอบเพื่อป้องกันอันตรายจากอุบัติเหตุหรือการใช้ในทางที่ผิด

สล็อต

ในพอดคาสต์ของเดือนนี้ Ariel ได้พูดคุยกับ Victoria Krakovna ผู้ร่วมก่อตั้ง FLI และ Shahar Avin จาก Center for the Study of Existential Risk (CSER) พวกเขาพูดถึงรายงานล่าสุดของ CSER เกี่ยวกับการคาดการณ์ การป้องกัน และการลดการใช้ AI ที่เป็นอันตราย ควบคู่ไปกับความพยายามมากมายเพื่อให้แน่ใจว่า AI ที่ปลอดภัยและเป็นประโยชน์
เอเรียล: ความท้าทายที่น่ากลัวและเดิมพันสูง ดังนั้น บทสรุปผู้บริหารของรายงานฉบับล่าสุดThe Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation จึงจบลง ฉันชื่อ Ariel Conn จากสถาบัน Future of Life และฉันรู้สึกตื่นเต้นที่ได้ Shahar Avin และ Victoria Krakovna มาร่วมงานกับฉันในวันนี้เพื่อพูดคุยเกี่ยวกับรายงานนี้พร้อมกับสถานะปัจจุบันของการวิจัยด้านความปลอดภัยของ AI และเรามาถึงจุดใดในครั้งล่าสุด สามปี
แต่ก่อนอื่น หากคุณชอบพอดแคสต์ของเรา โปรดตรวจสอบให้แน่ใจว่าคุณได้สมัครรับข้อมูลจากช่องนี้บน SoundCloud, iTunes หรือแพลตฟอร์มพอดแคสต์ที่คุณชื่นชอบ นอกจากพอดแคสต์รายเดือนที่ฉันบันทึกไว้แล้ว ลูคัส เพอร์รีจะสร้างซีรีส์พอดคาสต์ใหม่ซึ่งจะเน้นที่ความปลอดภัยของ AI และการจัดตำแหน่งของ AI โดยเขาจะสัมภาษณ์ผู้เชี่ยวชาญทางเทคนิคและไม่ใช่ด้านเทคนิคจากหลากหลายโดเมน บทสัมภาษณ์ที่กำลังจะมีขึ้นของเขาคือ Dylan Hadfield-Menell นักวิจัยด้านเทคนิค AI ที่ทำงานเกี่ยวกับการเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมและอนุมานความชอบของมนุษย์ วิธีที่ดีที่สุดในการติดตามเนื้อหาใหม่ๆ คือการสมัครรับข้อมูล และตอนนี้ กลับมาที่บทสัมภาษณ์ของเรากับชาฮาร์และวิคตอเรีย
Shahar เป็นผู้ร่วมงานวิจัยที่ศูนย์เพื่อการศึกษาของอัตถิภาวนิยมความเสี่ยงซึ่งผมจะหมายถึงเป็น CSER สำหรับส่วนที่เหลือของพอดคาสต์นี้และเขายังเป็นนำผู้เขียนร่วมในการใช้งานที่เป็นอันตรายของปัญญาประดิษฐ์รายงาน Victoria เป็นผู้ร่วมก่อตั้ง Future of Life Institute และเธอเป็นนักวิทยาศาสตร์การวิจัยที่ DeepMind ที่ทำงานเกี่ยวกับความปลอดภัยของ AI ด้านเทคนิค
วิคตอเรียและชาฮาร์ ขอบคุณมากที่มาร่วมงานกับฉันในวันนี้
ชาฮาร์: ขอบคุณที่มีพวกเรา
วิคตอเรีย: ตื่นเต้นที่ได้มาอยู่ที่นี่
เอเรียล: ฉันอยากย้อนเวลากลับไปเมื่อสามปีที่แล้ว ตอนที่ FLI เริ่มโครงการให้ทุนของเรา ซึ่งช่วยสนับสนุนรายงานนี้เกี่ยวกับการใช้ปัญญาประดิษฐ์อย่างมุ่งร้าย และฉันหวังว่าคุณจะคุยกันได้สักหนึ่งหรือสองนาทีเกี่ยวกับสิ่งที่ สถานะของการวิจัยด้านความปลอดภัยของ AI เมื่อสามปีที่แล้ว และอะไรเป็นเหตุให้ FLI ดำเนินการเกี่ยวกับประเด็นการวิจัยที่ให้ทุนสนับสนุนเหล่านี้มากมาย — โดยพื้นฐานแล้วอะไรที่ทำให้งานวิจัยจำนวนมากที่เราเห็นในปัจจุบันนี้เกิดขึ้น วิคตอเรีย บางทีมันอาจจะสมเหตุสมผลที่จะเริ่มต้นกับคุณอย่างรวดเร็วในเรื่องนี้
วิกตอเรีย: เมื่อ 3 ปีที่แล้ว ความปลอดภัย AI มีความสำคัญน้อยกว่าในชุมชนการวิจัย AI มากกว่าที่เป็นอยู่ในปัจจุบัน โดยเฉพาะอย่างยิ่งความปลอดภัย AI ในระยะยาว ดังนั้นส่วนหนึ่งของสิ่งที่ FLI กำลังดำเนินการอยู่และสาเหตุที่ FLI เริ่มโครงการมอบทุนนี้คือการกระตุ้นการทำงานให้มากขึ้นในด้านความปลอดภัยของ AI และโดยเฉพาะอย่างยิ่งในด้านระยะยาวที่เกี่ยวข้องกับปัญญาทั่วไปที่ทรงพลัง และทำให้เป็นหัวข้อหลักใน สาขาวิจัย AI
เมื่อสามปีที่แล้ว มีคนทำงานน้อยลง และหลายคนที่ทำงานอยู่ในนั้นก็ถูกตัดขาดจากชุมชนการวิจัย AI ที่เหลือเล็กน้อย ส่วนหนึ่งของสิ่งที่เราตั้งเป้าไว้สำหรับการประชุมในเปอร์โตริโกและโครงการทุนของเรา คือการเชื่อมโยงชุมชนเหล่านี้ให้ดีขึ้น และเพื่อให้แน่ใจว่าการวิจัยประเภทนี้จะเกิดขึ้นจริง และการสนทนาเปลี่ยนจากการพูดถึงความเสี่ยงด้าน AI ในนามธรรม เพื่อทำงานด้านเทคนิคจริง ๆ และทำให้แน่ใจว่าปัญหาทางเทคนิคได้รับการแก้ไขและเราเริ่มทำงานกับปัญหาเหล่านี้ล่วงหน้าก่อนที่จะเป็นที่ชัดเจนว่า สมมุติว่า AI ทั่วไป จะปรากฏขึ้นในไม่ช้า
ฉันคิดว่าส่วนหนึ่งของความคิดในโครงการให้ทุนเดิมคือการนำนักวิจัยใหม่ๆ เข้าสู่ความปลอดภัยของ AI และความปลอดภัย AI ในระยะยาว ดังนั้นเพื่อให้ผู้คนในชุมชน AI สนใจทำงานเกี่ยวกับปัญหาเหล่านี้ และสำหรับผู้ที่มีงานวิจัยที่เกี่ยวข้องกับพื้นที่อยู่แล้ว ให้มุ่งเน้นด้านความปลอดภัยของการวิจัยมากขึ้น

สล็อตออนไลน์

เอเรียล: ฉันอยากจะกลับมาที่ความคิดนั้น และเรามาไกลแค่ไหนในช่วงสามปีที่ผ่านมา แต่ก่อนที่เราจะทำอย่างนั้น ชาฮาร์ ฉันอยากจะถามคุณสักเล็กน้อยเกี่ยวกับรายงานนี้
ดังนั้นสิ่งนี้จึงเริ่มต้นจากเวิร์กช็อปที่วิคตอเรียเคยเข้าร่วมจริง ๆ เมื่อปีที่แล้ว แล้วคุณก็เปลี่ยนมันเป็นรายงานนี้ ฉันต้องการให้คุณพูดถึงสิ่งที่กระตุ้นให้เกิด และแนวคิดที่กล่าวถึงในรายงานนี้ก็คือ ไม่มีใครมองว่าปัญญาประดิษฐ์จะนำไปใช้ในทางที่ผิดได้อย่างไร แต่สิ่งที่เราเห็นจากทุกเทคโนโลยีและความก้าวหน้าที่เกิดขึ้นตลอดประวัติศาสตร์ ผมยังนึกอะไรไม่ออกเลยที่คนไม่ได้พยายามใช้ให้เกิดอันตรายเลย แม้จะสำเร็จหรือไม่ก็ตาม ผมไม่ รู้ว่าเป็นอย่างนั้นเสมอหรือไม่ แต่เกือบทุกอย่างถูกใช้เพื่อทำร้ายในทางใดทางหนึ่ง เลยสงสัยว่าทำไมยังไม่ค่อยมีคนพิจารณาเรื่องนี้อีก?
ชาฮาร: ย้อนกลับไปก่อนเวิร์กชอปสักสองสามเดือนอย่างที่คุณว่าไว้เมื่อเดือนกุมภาพันธ์ 2560 ทั้ง Miles Brundage ที่สถาบัน Future of Humanity และตัวฉันที่ Center for the Study of Existential Risk ต่างก็มีความเข้าใจว่ายังมีอีกมาก และมุมอื่นๆ ของการใช้ AI อย่างมุ่งร้ายที่กำลังถูกค้นคว้า ผู้คนเริ่มกังวลมากขึ้น เรากำลังหารือกับมูลนิธิ Electronic Frontier Foundation เกี่ยวกับ DARPA Cyber ​​Grand Challenge และความคืบหน้าในการใช้ปัญญาประดิษฐ์ในการรักษาความปลอดภัยทางไซเบอร์ที่น่ารังเกียจ ฉันคิดว่าไมลส์มีความเชื่อมโยงเป็นอย่างดีกับแวดวงที่กำลังดูระบบอาวุธสังหารอัตโนมัติที่ร้ายแรง และการใช้ความเป็นอิสระในโดรนเพิ่มมากขึ้น และเราต่างก็เป็นเรื่องราวคล้าย ๆ กับสตอรี่ Facebook ที่ตกเป็นข่าวเมื่อไม่นานนี้
ดังนั้นจึงไม่ใช่ว่าผู้คนไม่ได้มองการใช้ AI ที่เป็นอันตราย แต่สำหรับเราแล้วดูเหมือนว่าไม่มีมุมมองที่ครอบคลุมซึ่งไม่ได้มองที่โดเมนใดโดเมนหนึ่ง ไม่ใช่ว่า “AI จะทำอะไรกับความปลอดภัยทางไซเบอร์ในแง่ของการใช้ในทางที่ผิด? การใช้ AI ในทางที่ผิดจะมีลักษณะอย่างไรในการเมือง? การใช้ AI ในทางที่ผิดมีลักษณะอย่างไรในสงคราม” แต่โดยรวมแล้ว ถ้าคุณดูที่เทคโนโลยีนี้ การกระทำที่เป็นอันตรายประเภทใหม่ ๆ ที่เปิดใช้งาน และลักษณะทั่วไปอื่นๆ ในโดเมนต่างๆ เหล่านั้น นอกจากนี้ ดูเหมือนว่ามุมมอง “ทั่วกระดาน” ที่เน้นเทคโนโลยีมากกว่า นอกเหนือไปจากมุมมอง “โดเมนของแอปพลิเคชัน” เป็นสิ่งที่ขาดหายไป และนั่นอาจจะไม่น่าแปลกใจใช่ไหม? ผู้คนผูกติดอยู่กับสถานการณ์เฉพาะ โดเมนเฉพาะที่พวกเขามีความเชี่ยวชาญ และจากด้านเทคโนโลยี หลายคนคงไม่รู้ข้อแม้ทางกฎหมายของการทำสงครามทั้งหมด หรือ – สิ่งหนึ่งที่เราพบคือมีช่องทางการสื่อสารไม่เพียงพอระหว่างชุมชนความปลอดภัยทางไซเบอร์และชุมชนการวิจัย AI เช่นเดียวกับนักวิทยาศาสตร์ทางการเมืองและชุมชนวิจัย AI ดังนั้นจึงจำเป็นต้องมีการประชุมเชิงปฏิบัติการแบบสหวิทยาการเพื่อจัดการสิ่งเหล่านี้ทั้งหมดบนโต๊ะ และหยอกล้อความคล้ายคลึงกันบางอย่าง ซึ่งเป็นสิ่งที่เราพยายามทำกับรายงาน
Ariel : ที่จริงแล้วคุณพูดถึงเรื่อง Facebook และฉันสงสัยนิดหน่อยเกี่ยวกับเรื่องนั้น ที่อยู่ภายใต้รายงานฉบับนี้หรือว่าเป็นประเด็นแยกต่างหาก?
ชาฮาร์: ยังไม่ชัดเจนว่ารายงานจะอยู่ภายใต้รายงานโดยตรงหรือไม่ เพราะวิธีที่เราให้คำจำกัดความว่าเป็นอันตรายอาจถูกมองว่าเป็นปัญหา เป็นการดีที่สุดที่เราจะทำได้กับรายงานประเภทนี้ กล่าวคือ มีการพยายามสร้างความเสียหายโดยเจตนาโดยใช้เทคโนโลยีนี้ ไม่ชัดเจน ไม่ว่ากรณี Facebook จะมีการพยายามทำร้ายโดยเจตนาหรือไม่ว่ามีการเพิกเฉยต่ออันตรายที่อาจเกิดเป็นผลข้างเคียงหรือเพียงแค่การใช้สิ่งนี้ในเวทีที่มีการเคลื่อนไหวถูกต้องตามกฎหมายเพียง บางคนตระหนักดีว่าเทคโนโลยีนี้สามารถนำมาใช้เพื่อให้ได้เปรียบในเวทีนี้
แต่มีสถานการณ์ทั้งหมดที่นั่งอยู่ข้างๆ กัน ที่ดูคล้ายกันมาก แต่เป็นการใช้การเฝ้าระวังแบบนี้แบบรวมศูนย์ ลดความเป็นส่วนตัว มีแนวโน้มว่าจะใช้ AI เพื่อจัดการกับบุคคล จัดการกับพฤติกรรมของพวกเขา ส่งข้อความเป้าหมายไปยังบุคคลใดบุคคลหนึ่ง .

jumboslot

มีสถานการณ์สมมติที่จินตนาการได้อย่างชัดเจนซึ่งการกระทำนี้มุ่งร้ายเพื่อให้รัฐบาลที่ทุจริตมีอำนาจ ล้มล้างรัฐบาลในประเทศอื่น เป็นการเอาชนะการกำหนดตนเองของสมาชิกในประเทศของตน จะไม่มีกฎเกณฑ์ที่ชัดเจนเกี่ยวกับสิ่งที่เป็นอันตรายอย่างชัดเจนและสิ่งที่เป็นเพียงส่วนหนึ่งของเกม ฉันไม่รู้ว่าจะวางกรณีของ Facebook และ Cambridge Analytica ไว้ที่ใด แต่มีบางกรณีที่ฉันคิดว่าในระดับสากลถือว่าเป็นอันตราย ซึ่งจากด้านเทคโนโลยีนั้นดูคล้ายกันมาก
เอเรียล: ดังนั้น นี่จึงเป็นคำจำกัดความสั้นๆ ที่ฉันอยากให้คุณบอกเรา และนั่นคือสำหรับคำว่า ‘การใช้งานแบบคู่’ ฉันอยู่ในการประชุมเมื่อไม่นานนี้ และเจ้าหน้าที่ของรัฐซึ่งอยู่ที่นั่น ไม่ใช่ระดับสูง แต่คนที่น่าจะคุ้นเคยกับคำว่า ‘การใช้งานแบบสองทาง’ นั้นไม่ใช่ ดังนั้นฉันจึงต้องการให้แน่ใจว่าเราทุกคนรู้ว่านั่นหมายถึงอะไร
ชาฮาร: แน่นอนว่าฉันไม่ใช่ผู้เชี่ยวชาญด้านกฎหมาย แต่คำศัพท์มีขึ้นเยอะมากในเวิร์กชอปและในรายงาน ‘การใช้งานแบบคู่’ เท่าที่ฉันสามารถเข้าใจได้นั้นหมายถึงเทคโนโลยีหรือวัสดุที่ทั้งคู่มีจุดประสงค์และการใช้งานอย่างสงบสุขหรือโดยสันติ แต่ยังรวมถึงในช่วงสงครามหรือการใช้งานที่เป็นอันตราย ตัวอย่างคลาสสิกคือปุ๋ยบางชนิดที่สามารถนำมาใช้ในการปลูกพืชผลมากขึ้น แต่ยังสามารถใช้ทำระเบิดพื้นบ้านได้อีกด้วย และเรื่องนี้สำคัญเพราะคุณอาจต้องการควบคุมวัตถุระเบิด แต่คุณไม่ต้องการจำกัดการเข้าถึงของผู้คนเพื่อรับปุ๋ย ดังนั้นคุณจึงจำเป็นต้องผูกมัด คุณจะแน่ใจได้อย่างไรว่าผู้ที่ใช้เทคโนโลยีหรือวัสดุบางอย่างโดยชอบด้วยกฎหมายจะเข้าถึงได้โดยปราศจากความยุ่งยากมากเกินไปซึ่งจะเพิ่มต้นทุนหรือทำให้สิ่งต่างๆ เป็นภาระมากขึ้น แต่ในขณะเดียวกัน
ฉันยังเคยได้ยินคำว่า ‘omni use’ ที่เรียกกันว่าปัญญาประดิษฐ์ ซึ่งเป็นแนวคิดที่ว่าเทคโนโลยีมีประโยชน์มากมายทั่วทั้งกระดาน ซึ่งควบคุมมันเพราะมีโอกาสก่อให้เกิดอันตรายได้ในราคาที่สูงมาก เพราะมันเป็นพื้นฐานสำหรับสิ่งอื่น ๆ มากมาย เราสามารถนึกถึงไฟฟ้าได้: เป็นความจริงที่คุณสามารถใช้ไฟฟ้าเพื่อทำร้ายผู้คนได้ แต่การตรวจสอบผู้ใช้กริดไฟฟ้าทุกคนก่อนที่จะได้รับอนุญาตให้ใช้ไฟฟ้านั้นดูจะรุนแรงมากเพราะมีประโยชน์มากมายที่จะได้รับจากเพียงแค่ การเข้าถึงไฟฟ้าเป็นสาธารณูปโภคที่คุณต้องหาวิธีอื่นในการควบคุม คอมพิวเตอร์มักถูกมองว่าเป็น ‘การใช้ทุกวิถีทาง’ และอาจเป็นไปได้ว่าปัญญาประดิษฐ์เป็นเทคโนโลยีที่เป็นพื้นฐานสำหรับแอปพลิเคชันจำนวนมากจนเป็น ‘การใช้งานแบบ Omni
เอเรียล: โอเค ขอขอบคุณ. ดังนั้น เมื่อย้อนกลับไปที่รายงานโดยเจาะจงมากขึ้นเล็กน้อย ฉันไม่รู้ว่าเราต้องการลงรายละเอียดในทุกสิ่งมากน้อยเพียงใด แต่ฉันหวังว่าคุณจะสามารถพูดถึงหัวข้อใหญ่สองสามหัวข้อที่อยู่ในรายงานได้เล็กน้อย ตัวอย่างเช่น คุณพูดถึงการเปลี่ยนแปลงภูมิทัศน์ของภัยคุกคาม ซึ่งมีการขยายภัยคุกคามที่มีอยู่ มีการแนะนำภัยคุกคามใหม่ และภัยคุกคามทั่วไปจะได้รับการแก้ไข คุณช่วยพูดสั้น ๆ หน่อยได้ไหมว่าแต่ละข้อหมายความว่าอย่างไร
ชาฮาร: ดังนั้น ฉันเดาว่าสิ่งที่ฉันพูด การเปลี่ยนแปลงที่ใหญ่ที่สุดคือการเรียนรู้ของเครื่อง อย่างน้อยก็ในบางโดเมน ตอนนี้ใช้งานได้แล้ว นั่นหมายความว่าคุณไม่จำเป็นต้องให้ใครมาเขียนโค้ดเพื่อให้มีคอมพิวเตอร์ที่ทำงานได้ดี หากคุณสามารถมีประเภทข้อมูลที่ถูกต้องหรือเครื่องจำลองที่เหมาะสมซึ่งคุณสามารถฝึกได้ อัลกอริทึมในการดำเนินการนั้น นั่นหมายความว่า ตัวอย่างเช่น หากมีผู้เชี่ยวชาญที่เป็นมนุษย์ที่มีความรู้โดยปริยายมากในขอบเขตเฉพาะ สมมุติว่าการใช้ปืนไรเฟิลซุ่มยิง อาจเป็นไปได้ที่จะฝึกกล้องที่วางบนปืนไรเฟิลควบคู่กัน ด้วยอัลกอริธึมแมชชีนเลิร์นนิงที่กำหนดเป้าหมายให้กับคุณ ดังนั้นตอนนี้ทหารทุกคนจะกลายเป็นผู้เชี่ยวชาญในฐานะนักแม่นปืนผู้เชี่ยวชาญ และแน่นอน เมื่อคุณฝึกโมเดลนี้ครั้งเดียว
[NPC5]อีกประการหนึ่งคือความสามารถในการผ่านช่องว่างขนาดใหญ่ของตัวเลือก และใช้ฮิวริสติกบางอย่างเพื่อค้นหาโซลูชันที่มีประสิทธิภาพผ่านพื้นที่นั้น ตัวอย่างหนึ่งของสิ่งนั้นคือ AlphaGo ซึ่งเป็นความสำเร็จทางเทคโนโลยีที่ยอดเยี่ยมและไม่มีการใช้งานที่เป็นอันตราย แต่คุณสามารถจินตนาการว่าเป็นการเปรียบเทียบ เทคโนโลยีที่คล้ายกันถูกใช้เพื่อค้นหาจุดอ่อนในซอฟต์แวร์ การค้นหาช่องโหว่ และอื่นๆ และฉันเดาว่า ในที่สุด ตัวอย่างหนึ่งที่เราได้เห็นมามากมาย ก็คือความสามารถในแมชชีนวิชัน ความจริงที่ว่าตอนนี้คุณสามารถดูรูปภาพและบอกได้ว่ามีอะไรอยู่ในภาพนั้นผ่านการฝึกอบรมซึ่งเป็นสิ่งที่คอมพิวเตอร์ไม่สามารถทำได้เมื่อทศวรรษที่แล้ว อย่างน้อยไม่มีที่ไหนเลยที่ใกล้ระดับประสิทธิภาพของมนุษย์เริ่มปลดล็อกภัยคุกคามที่อาจเกิดขึ้นทั้งสอง ในการกำหนดเป้าหมายอัตโนมัติ พูดเหนือโดรน แต่ยังอยู่ในการจัดการ ถ้าฉันสามารถรู้ได้ว่ารูปภาพเป็นตัวแทนที่ดีของบางสิ่งหรือไม่ ความสามารถในการสร้างของปลอมก็เพิ่มขึ้นอย่างมาก นี่คือเทคโนโลยีของเครือข่ายปฏิปักษ์ ที่เราเคยเห็นใช้ในการสร้างเสียงปลอมและวิดีโอที่อาจปลอมในอนาคตอันใกล้