Get in my Think Art.

Day: September 14, 2021

การทำให้ AI ปลอดภัยในโลกที่คาดเดาไม่ได้: บทสัมภาษณ์กับ Thomas G. Dietterich

การทำให้ AI ปลอดภัยในโลกที่คาดเดาไม่ได้: บทสัมภาษณ์กับ Thomas G. Dietterich

การทำให้ AI ปลอดภัยในโลกที่คาดเดาไม่ได้: บทสัมภาษณ์กับ Thomas G. Dietterich jumbo jili ระบบ AI ของเราทำงานได้ดีอย่างน่าทึ่งในโลกปิด นั่นเป็นเพราะสภาพแวดล้อมเหล่านี้มีจำนวนตัวแปรที่กำหนดไว้ ทำให้โลกเป็นที่รู้จักและคาดเดาได้อย่างสมบูรณ์แบบ ในสภาพแวดล้อมขนาดเล็กเหล่านี้ เครื่องจะพบเฉพาะวัตถุที่คุ้นเคยเท่านั้น เป็นผลให้พวกเขารู้เสมอว่าพวกเขาควรกระทำและตอบสนองอย่างไร น่าเสียดายที่ระบบเดียวกันนี้จะสับสนอย่างรวดเร็วเมื่อนำไปใช้ในโลกแห่งความเป็นจริง เนื่องจากวัตถุจำนวนมากไม่คุ้นเคย นี่เป็นปัญหาเล็กน้อยเพราะเมื่อระบบ AI สับสน ผลลัพธ์อาจถึงตายได้ สล็อต ตัวอย่างเช่น ลองพิจารณารถยนต์ที่ขับเองซึ่งพบกับวัตถุแปลกใหม่ ควรเร่งหรือควรช้าลง? หรือพิจารณาระบบอาวุธอัตโนมัติที่มองเห็นความผิดปกติ มันควรจะโจมตีหรือควรจะปิดไฟ? ตัวอย่างแต่ละตัวอย่างเกี่ยวข้องกับการตัดสินใจเรื่องความเป็นและความตาย และเผยให้เห็นว่าทำไม หากเราต้องการปรับใช้ระบบ AI ขั้นสูงในสภาพแวดล้อมจริง เราต้องมั่นใจว่าพวกมันจะทำงานอย่างถูกต้องเมื่อพบวัตถุที่ไม่คุ้นเคยThomas G. Dietterichศาสตราจารย์กิตติคุณด้านวิทยาการคอมพิวเตอร์ที่ Oregon State University อธิบายว่าการแก้ปัญหาการระบุตัวตนนี้เริ่มต้นด้วยการทำให้มั่นใจว่าระบบ AI ของเราไม่มั่นใจเกินไป โดยจะรับรู้ได้เมื่อพบวัตถุแปลกปลอมและไม่ระบุให้เข้าใจผิดว่าเป็น สิ่งที่พวกเขาคุ้นเคย […]

AI Alignment Podcast: ความไม่แน่นอนทางศีลธรรมและเส้นทางสู่ AI Alignment กับ William MacAskill

AI Alignment Podcast: ความไม่แน่นอนทางศีลธรรมและเส้นทางสู่ AI Alignment กับ William MacAskill

AI Alignment Podcast: ความไม่แน่นอนทางศีลธรรมและเส้นทางสู่ AI Alignment กับ William MacAskill jumbo jili เราจะก้าวหน้าในการจัดตำแหน่ง AI ได้อย่างไรเนื่องจากความไม่แน่นอนทางศีลธรรม? อะไรคือวิธีในอุดมคติในการแก้ไขระบบค่านิยมที่ขัดแย้งกันและมุมมองด้านศีลธรรมระหว่างบุคคล? เราควรดำเนินการเกี่ยวกับการจัดตำแหน่ง AI อย่างไรเนื่องจากเราไม่แน่ใจเกี่ยวกับทฤษฎีเชิงบรรทัดฐานและเชิงอภิปรัชญาของเรา? ควรรวบรวมความชอบและบุคคลในอุดมคติอย่างไรในบริบทของความไม่แน่นอนของเรา สล็อต ความไม่แน่นอนทางศีลธรรมและเส้นทางสู่ AI Alignment กับ William MacAskill เป็นพอดคาสต์ที่ห้าในซีรี่ส์ AI Alignment ใหม่ ซึ่งจัดโดย Lucas Perry สำหรับผู้ที่ยังใหม่ ซีรีส์นี้จะครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง เราจะหารือกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในด้านต่างๆ เช่น แมชชีนเลิร์นนิง ความปลอดภัยของ AI […]

พอดคาสต์: AI และอาวุธนิวเคลียร์ – ความไว้วางใจ อุบัติเหตุ และความเสี่ยงใหม่กับ Paul Scharre และ Mike Horowitz

พอดคาสต์: AI และอาวุธนิวเคลียร์ – ความไว้วางใจ อุบัติเหตุ และความเสี่ยงใหม่กับ Paul Scharre และ Mike Horowitz

พอดคาสต์: AI และอาวุธนิวเคลียร์ – ความไว้วางใจ อุบัติเหตุ และความเสี่ยงใหม่กับ Paul Scharre และ Mike Horowitz jumbo jili ในปี 1983 นายทหารโซเวียต สตานิสลาฟ เปตรอฟ ได้ป้องกันสิ่งที่อาจเป็นสงครามนิวเคลียร์ที่ทำลายล้างโดยเชื่อสัญชาตญาณของเขาว่าอัลกอริธึมในระบบเตือนล่วงหน้าของเขาตรวจจับขีปนาวุธที่เข้ามาอย่างผิดพลาด ในกรณีนี้ เรายกย่อง Petrov ที่เลือกวิจารณญาณของมนุษย์เหนือระบบอัตโนมัติที่อยู่ตรงหน้าเขา แต่จะเกิดอะไรขึ้นเมื่ออัลกอริธึม AI ที่ใช้ในทรงกลมนิวเคลียร์มีความก้าวหน้า แม่นยำ และเข้าใจยากมากขึ้น เจ้าหน้าที่คนต่อไปในตำแหน่งของ Petrov จะไว้วางใจเครื่องจักร “ฉลาด” ต่อหน้าเขามากขึ้นหรือไม่? สล็อต ในพอดคาสต์ของเดือนนี้ Ariel ได้พูดคุยกับ Paul Scharre และ Mike Horowitz จาก Center […]

อคติทางปัญญาและการจัดแนวค่า AI: บทสัมภาษณ์กับ Owain Evans

อคติทางปัญญาและการจัดแนวค่า AI: บทสัมภาษณ์กับ Owain Evans

อคติทางปัญญาและการจัดแนวค่า AI: บทสัมภาษณ์กับ Owain Evans jumbo jili หัวใจสำคัญของความปลอดภัยของ AI อยู่ที่ปัญหาการจัดแนวคุณค่า: เราจะสอนระบบปัญญาประดิษฐ์ให้สอดคล้องกับเป้าหมายและค่านิยมของมนุษย์ได้อย่างไรนักวิจัยหลายคนโต้ตอบกับระบบ AI เพื่อสอนพวกเขาถึงคุณค่าของมนุษย์ โดยใช้เทคนิคต่างๆ เช่น การเรียนรู้การเสริมแรงผกผัน (IRL) ในทางทฤษฎี เมื่อใช้ IRL ระบบ AI สามารถเรียนรู้สิ่งที่มนุษย์ให้ความสำคัญและวิธีช่วยเหลือพวกเขาได้ดีที่สุดโดยการสังเกตพฤติกรรมของมนุษย์และรับผลตอบรับจากมนุษย์ สล็อต แต่พฤติกรรมของมนุษย์ไม่ได้สะท้อนถึงคุณค่าของมนุษย์เสมอไป และความคิดเห็นของมนุษย์ก็มักจะลำเอียง เราบอกว่าเราต้องการอาหารเพื่อสุขภาพเมื่อเรารู้สึกผ่อนคลาย แต่แล้วเราต้องการอาหารมันเยิ้มเมื่อเราเครียด ไม่เพียงแต่เรามักจะล้มเหลวในการดำเนินชีวิตตามค่านิยมของเราเท่านั้น แต่ค่านิยมของเราหลายอย่างขัดแย้งกัน เราให้ความสำคัญกับการนอนหลับแปดชั่วโมง แต่เรานอนน้อยลงเป็นประจำเพราะเราให้ความสำคัญกับการทำงานหนัก การดูแลลูกๆ ของเรา และรักษาความสัมพันธ์ที่ดีต่อสุขภาพระบบ AI อาจเรียนรู้ได้มากจากการสังเกตมนุษย์ แต่เนื่องจากความไม่สอดคล้องกันของเรา นักวิจัยบางคนกังวลว่าระบบที่ฝึกด้วย IRL จะไม่สามารถแยกแยะระหว่างพฤติกรรมที่ให้ความสำคัญกับคุณค่าและพฤติกรรมที่ไม่ตรงแนวได้ สิ่งนี้อาจกลายเป็นอันตรายโดยเฉพาะอย่างยิ่งเมื่อระบบ AI มีประสิทธิภาพมากขึ้น: การอนุมานค่าหรือเป้าหมายที่ไม่ถูกต้องจากการสังเกตมนุษย์อาจทำให้ระบบเหล่านี้มีพฤติกรรมที่เป็นอันตรายแยกแยะอคติและค่านิยมOwain […]

พอดคาสต์: Martin Rees เกี่ยวกับอนาคตของมนุษยชาติ: AI, เทคโนโลยีชีวภาพ, การเปลี่ยนแปลงสภาพภูมิอากาศ, การมีประชากรมากเกินไป, การแช่แข็งและอื่น ๆ

พอดคาสต์: Martin Rees เกี่ยวกับอนาคตของมนุษยชาติ: AI, เทคโนโลยีชีวภาพ, การเปลี่ยนแปลงสภาพภูมิอากาศ, การมีประชากรมากเกินไป, การแช่แข็งและอื่น ๆ

พอดคาสต์: Martin Rees เกี่ยวกับอนาคตของมนุษยชาติ: AI, เทคโนโลยีชีวภาพ, การเปลี่ยนแปลงสภาพภูมิอากาศ, การมีประชากรมากเกินไป, การแช่แข็งและอื่น ๆ jumbo jili มนุษยชาติจะอยู่รอดในศตวรรษหน้าของการเปลี่ยนแปลงสภาพภูมิอากาศ ประชากรที่เพิ่มขึ้น และภัยคุกคามทางเทคโนโลยีที่เกิดขึ้นใหม่ได้อย่างไร ตอนนี้เรายืนอยู่ที่จุดไหน และเราจะทำอะไรได้บ้างเพื่อร่วมมือและจัดการกับความเสี่ยงด้านอัตถิภาวนิยมที่ยิ่งใหญ่ที่สุดของเรา?ในตอนพิเศษของพอดคาสต์นี้ Ariel พูดคุยกับ Martin Rees เกี่ยวกับหนังสือเล่มใหม่ของเขาOn the Future: Prospects for Humanityซึ่งกล่าวถึงความเสี่ยงในการดำรงอยู่ของมนุษยชาติและบทบาทของเทคโนโลยีในการกำหนดอนาคตโดยรวมของเรา มาร์ตินเป็นนักจักรวาลวิทยาและนักวิทยาศาสตร์อวกาศในมหาวิทยาลัยเคมบริดจ์ เขาเป็นผู้อำนวยการสถาบันดาราศาสตร์และปริญญาโทของวิทยาลัยทรินิตี และเขาเป็นประธานของ The Royal Society ซึ่งเป็น Academy of Science ของสหราชอาณาจักรตั้งแต่ปี 2548 ถึง 2553 ในปี 2548 เขาได้รับการแต่งตั้งให้ดำรงตำแหน่งสภาขุนนางแห่งสหราชอาณาจักร สล็อต […]

AI Alignment Podcast: ในการกลายเป็นความจริงทางศีลธรรมกับ Peter Singer

AI Alignment Podcast: ในการกลายเป็นความจริงทางศีลธรรมกับ Peter Singer

AI Alignment Podcast: ในการกลายเป็นความจริงทางศีลธรรมกับ Peter Singer jumbo jili มีข้อเท็จจริงเช่นข้อเท็จจริงทางศีลธรรมหรือไม่? ถ้าเป็นเช่นนั้นเราจะสามารถเข้าถึงพวกเขาได้อย่างไร ปีเตอร์ ซิงเกอร์ เริ่มต้นอาชีพของเขาในฐานะผู้ชอบผลประโยชน์และต่อต้านสัจนิยมทางศีลธรรม จากนั้นเมื่อเวลาผ่านไปก็กลายเป็นผู้ชอบใช้ประโยชน์ตามหลักศีลธรรมและเป็นนักสัจนิยมทางศีลธรรม การเปลี่ยนแปลงดังกล่าวเกิดขึ้นได้อย่างไร และตำแหน่งใดที่สามารถป้องกันได้ดีกว่ากัน? วัตถุนิยมในจริยธรรมอาจส่งผลต่อการจัดตำแหน่ง AI อย่างไร ทั้งหมดนี้มีความหมายต่ออนาคตของ AI อย่างไร สล็อต เรื่อง Becoming a Moral Realist with Peter Singer เป็นพอดคาสต์ที่หกในซีรีส์ AI Alignment ซึ่งจัดโดย Lucas Perry สำหรับผู้ที่ยังใหม่ ซีรีส์นี้จะครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง เราจะหารือกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในด้านต่างๆ […]