Get in my Think Art.

บล็อก

การทำให้ AI ปลอดภัยในโลกที่คาดเดาไม่ได้: บทสัมภาษณ์กับ Thomas G. Dietterich

การทำให้ AI ปลอดภัยในโลกที่คาดเดาไม่ได้: บทสัมภาษณ์กับ Thomas G. Dietterich

การทำให้ AI ปลอดภัยในโลกที่คาดเดาไม่ได้: บทสัมภาษณ์กับ Thomas G. Dietterich jumbo jili ระบบ AI ของเราทำงานได้ดีอย่างน่าทึ่งในโลกปิด นั่นเป็นเพราะสภาพแวดล้อมเหล่านี้มีจำนวนตัวแปรที่กำหนดไว้ ทำให้โลกเป็นที่รู้จักและคาดเดาได้อย่างสมบูรณ์แบบ ในสภาพแวดล้อมขนาดเล็กเหล่านี้ เครื่องจะพบเฉพาะวัตถุที่คุ้นเคยเท่านั้น เป็นผลให้พวกเขารู้เสมอว่าพวกเขาควรกระทำและตอบสนองอย่างไร น่าเสียดายที่ระบบเดียวกันนี้จะสับสนอย่างรวดเร็วเมื่อนำไปใช้ในโลกแห่งความเป็นจริง เนื่องจากวัตถุจำนวนมากไม่คุ้นเคย นี่เป็นปัญหาเล็กน้อยเพราะเมื่อระบบ AI สับสน ผลลัพธ์อาจถึงตายได้ สล็อต ตัวอย่างเช่น ลองพิจารณารถยนต์ที่ขับเองซึ่งพบกับวัตถุแปลกใหม่ ควรเร่งหรือควรช้าลง? หรือพิจารณาระบบอาวุธอัตโนมัติที่มองเห็นความผิดปกติ มันควรจะโจมตีหรือควรจะปิดไฟ? ตัวอย่างแต่ละตัวอย่างเกี่ยวข้องกับการตัดสินใจเรื่องความเป็นและความตาย และเผยให้เห็นว่าทำไม หากเราต้องการปรับใช้ระบบ AI ขั้นสูงในสภาพแวดล้อมจริง เราต้องมั่นใจว่าพวกมันจะทำงานอย่างถูกต้องเมื่อพบวัตถุที่ไม่คุ้นเคยThomas G. Dietterichศาสตราจารย์กิตติคุณด้านวิทยาการคอมพิวเตอร์ที่ Oregon State University อธิบายว่าการแก้ปัญหาการระบุตัวตนนี้เริ่มต้นด้วยการทำให้มั่นใจว่าระบบ AI ของเราไม่มั่นใจเกินไป โดยจะรับรู้ได้เมื่อพบวัตถุแปลกปลอมและไม่ระบุให้เข้าใจผิดว่าเป็น สิ่งที่พวกเขาคุ้นเคย […]

AI Alignment Podcast: ความไม่แน่นอนทางศีลธรรมและเส้นทางสู่ AI Alignment กับ William MacAskill

AI Alignment Podcast: ความไม่แน่นอนทางศีลธรรมและเส้นทางสู่ AI Alignment กับ William MacAskill

AI Alignment Podcast: ความไม่แน่นอนทางศีลธรรมและเส้นทางสู่ AI Alignment กับ William MacAskill jumbo jili เราจะก้าวหน้าในการจัดตำแหน่ง AI ได้อย่างไรเนื่องจากความไม่แน่นอนทางศีลธรรม? อะไรคือวิธีในอุดมคติในการแก้ไขระบบค่านิยมที่ขัดแย้งกันและมุมมองด้านศีลธรรมระหว่างบุคคล? เราควรดำเนินการเกี่ยวกับการจัดตำแหน่ง AI อย่างไรเนื่องจากเราไม่แน่ใจเกี่ยวกับทฤษฎีเชิงบรรทัดฐานและเชิงอภิปรัชญาของเรา? ควรรวบรวมความชอบและบุคคลในอุดมคติอย่างไรในบริบทของความไม่แน่นอนของเรา สล็อต ความไม่แน่นอนทางศีลธรรมและเส้นทางสู่ AI Alignment กับ William MacAskill เป็นพอดคาสต์ที่ห้าในซีรี่ส์ AI Alignment ใหม่ ซึ่งจัดโดย Lucas Perry สำหรับผู้ที่ยังใหม่ ซีรีส์นี้จะครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง เราจะหารือกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในด้านต่างๆ เช่น แมชชีนเลิร์นนิง ความปลอดภัยของ AI […]

พอดคาสต์: AI และอาวุธนิวเคลียร์ – ความไว้วางใจ อุบัติเหตุ และความเสี่ยงใหม่กับ Paul Scharre และ Mike Horowitz

พอดคาสต์: AI และอาวุธนิวเคลียร์ – ความไว้วางใจ อุบัติเหตุ และความเสี่ยงใหม่กับ Paul Scharre และ Mike Horowitz

พอดคาสต์: AI และอาวุธนิวเคลียร์ – ความไว้วางใจ อุบัติเหตุ และความเสี่ยงใหม่กับ Paul Scharre และ Mike Horowitz jumbo jili ในปี 1983 นายทหารโซเวียต สตานิสลาฟ เปตรอฟ ได้ป้องกันสิ่งที่อาจเป็นสงครามนิวเคลียร์ที่ทำลายล้างโดยเชื่อสัญชาตญาณของเขาว่าอัลกอริธึมในระบบเตือนล่วงหน้าของเขาตรวจจับขีปนาวุธที่เข้ามาอย่างผิดพลาด ในกรณีนี้ เรายกย่อง Petrov ที่เลือกวิจารณญาณของมนุษย์เหนือระบบอัตโนมัติที่อยู่ตรงหน้าเขา แต่จะเกิดอะไรขึ้นเมื่ออัลกอริธึม AI ที่ใช้ในทรงกลมนิวเคลียร์มีความก้าวหน้า แม่นยำ และเข้าใจยากมากขึ้น เจ้าหน้าที่คนต่อไปในตำแหน่งของ Petrov จะไว้วางใจเครื่องจักร “ฉลาด” ต่อหน้าเขามากขึ้นหรือไม่? สล็อต ในพอดคาสต์ของเดือนนี้ Ariel ได้พูดคุยกับ Paul Scharre และ Mike Horowitz จาก Center […]

อคติทางปัญญาและการจัดแนวค่า AI: บทสัมภาษณ์กับ Owain Evans

อคติทางปัญญาและการจัดแนวค่า AI: บทสัมภาษณ์กับ Owain Evans

อคติทางปัญญาและการจัดแนวค่า AI: บทสัมภาษณ์กับ Owain Evans jumbo jili หัวใจสำคัญของความปลอดภัยของ AI อยู่ที่ปัญหาการจัดแนวคุณค่า: เราจะสอนระบบปัญญาประดิษฐ์ให้สอดคล้องกับเป้าหมายและค่านิยมของมนุษย์ได้อย่างไรนักวิจัยหลายคนโต้ตอบกับระบบ AI เพื่อสอนพวกเขาถึงคุณค่าของมนุษย์ โดยใช้เทคนิคต่างๆ เช่น การเรียนรู้การเสริมแรงผกผัน (IRL) ในทางทฤษฎี เมื่อใช้ IRL ระบบ AI สามารถเรียนรู้สิ่งที่มนุษย์ให้ความสำคัญและวิธีช่วยเหลือพวกเขาได้ดีที่สุดโดยการสังเกตพฤติกรรมของมนุษย์และรับผลตอบรับจากมนุษย์ สล็อต แต่พฤติกรรมของมนุษย์ไม่ได้สะท้อนถึงคุณค่าของมนุษย์เสมอไป และความคิดเห็นของมนุษย์ก็มักจะลำเอียง เราบอกว่าเราต้องการอาหารเพื่อสุขภาพเมื่อเรารู้สึกผ่อนคลาย แต่แล้วเราต้องการอาหารมันเยิ้มเมื่อเราเครียด ไม่เพียงแต่เรามักจะล้มเหลวในการดำเนินชีวิตตามค่านิยมของเราเท่านั้น แต่ค่านิยมของเราหลายอย่างขัดแย้งกัน เราให้ความสำคัญกับการนอนหลับแปดชั่วโมง แต่เรานอนน้อยลงเป็นประจำเพราะเราให้ความสำคัญกับการทำงานหนัก การดูแลลูกๆ ของเรา และรักษาความสัมพันธ์ที่ดีต่อสุขภาพระบบ AI อาจเรียนรู้ได้มากจากการสังเกตมนุษย์ แต่เนื่องจากความไม่สอดคล้องกันของเรา นักวิจัยบางคนกังวลว่าระบบที่ฝึกด้วย IRL จะไม่สามารถแยกแยะระหว่างพฤติกรรมที่ให้ความสำคัญกับคุณค่าและพฤติกรรมที่ไม่ตรงแนวได้ สิ่งนี้อาจกลายเป็นอันตรายโดยเฉพาะอย่างยิ่งเมื่อระบบ AI มีประสิทธิภาพมากขึ้น: การอนุมานค่าหรือเป้าหมายที่ไม่ถูกต้องจากการสังเกตมนุษย์อาจทำให้ระบบเหล่านี้มีพฤติกรรมที่เป็นอันตรายแยกแยะอคติและค่านิยมOwain […]

พอดคาสต์: Martin Rees เกี่ยวกับอนาคตของมนุษยชาติ: AI, เทคโนโลยีชีวภาพ, การเปลี่ยนแปลงสภาพภูมิอากาศ, การมีประชากรมากเกินไป, การแช่แข็งและอื่น ๆ

พอดคาสต์: Martin Rees เกี่ยวกับอนาคตของมนุษยชาติ: AI, เทคโนโลยีชีวภาพ, การเปลี่ยนแปลงสภาพภูมิอากาศ, การมีประชากรมากเกินไป, การแช่แข็งและอื่น ๆ

พอดคาสต์: Martin Rees เกี่ยวกับอนาคตของมนุษยชาติ: AI, เทคโนโลยีชีวภาพ, การเปลี่ยนแปลงสภาพภูมิอากาศ, การมีประชากรมากเกินไป, การแช่แข็งและอื่น ๆ jumbo jili มนุษยชาติจะอยู่รอดในศตวรรษหน้าของการเปลี่ยนแปลงสภาพภูมิอากาศ ประชากรที่เพิ่มขึ้น และภัยคุกคามทางเทคโนโลยีที่เกิดขึ้นใหม่ได้อย่างไร ตอนนี้เรายืนอยู่ที่จุดไหน และเราจะทำอะไรได้บ้างเพื่อร่วมมือและจัดการกับความเสี่ยงด้านอัตถิภาวนิยมที่ยิ่งใหญ่ที่สุดของเรา?ในตอนพิเศษของพอดคาสต์นี้ Ariel พูดคุยกับ Martin Rees เกี่ยวกับหนังสือเล่มใหม่ของเขาOn the Future: Prospects for Humanityซึ่งกล่าวถึงความเสี่ยงในการดำรงอยู่ของมนุษยชาติและบทบาทของเทคโนโลยีในการกำหนดอนาคตโดยรวมของเรา มาร์ตินเป็นนักจักรวาลวิทยาและนักวิทยาศาสตร์อวกาศในมหาวิทยาลัยเคมบริดจ์ เขาเป็นผู้อำนวยการสถาบันดาราศาสตร์และปริญญาโทของวิทยาลัยทรินิตี และเขาเป็นประธานของ The Royal Society ซึ่งเป็น Academy of Science ของสหราชอาณาจักรตั้งแต่ปี 2548 ถึง 2553 ในปี 2548 เขาได้รับการแต่งตั้งให้ดำรงตำแหน่งสภาขุนนางแห่งสหราชอาณาจักร สล็อต […]

AI Alignment Podcast: ในการกลายเป็นความจริงทางศีลธรรมกับ Peter Singer

AI Alignment Podcast: ในการกลายเป็นความจริงทางศีลธรรมกับ Peter Singer

AI Alignment Podcast: ในการกลายเป็นความจริงทางศีลธรรมกับ Peter Singer jumbo jili มีข้อเท็จจริงเช่นข้อเท็จจริงทางศีลธรรมหรือไม่? ถ้าเป็นเช่นนั้นเราจะสามารถเข้าถึงพวกเขาได้อย่างไร ปีเตอร์ ซิงเกอร์ เริ่มต้นอาชีพของเขาในฐานะผู้ชอบผลประโยชน์และต่อต้านสัจนิยมทางศีลธรรม จากนั้นเมื่อเวลาผ่านไปก็กลายเป็นผู้ชอบใช้ประโยชน์ตามหลักศีลธรรมและเป็นนักสัจนิยมทางศีลธรรม การเปลี่ยนแปลงดังกล่าวเกิดขึ้นได้อย่างไร และตำแหน่งใดที่สามารถป้องกันได้ดีกว่ากัน? วัตถุนิยมในจริยธรรมอาจส่งผลต่อการจัดตำแหน่ง AI อย่างไร ทั้งหมดนี้มีความหมายต่ออนาคตของ AI อย่างไร สล็อต เรื่อง Becoming a Moral Realist with Peter Singer เป็นพอดคาสต์ที่หกในซีรีส์ AI Alignment ซึ่งจัดโดย Lucas Perry สำหรับผู้ที่ยังใหม่ ซีรีส์นี้จะครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง เราจะหารือกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในด้านต่างๆ […]

วิธีสร้าง AI ที่สามารถนำทางโลกของเราได้อย่างปลอดภัย — บทสัมภาษณ์กับ Andre Platzer

วิธีสร้าง AI ที่สามารถนำทางโลกของเราได้อย่างปลอดภัย — บทสัมภาษณ์กับ Andre Platzer

วิธีสร้าง AI ที่สามารถนำทางโลกของเราได้อย่างปลอดภัย — บทสัมภาษณ์กับ Andre Platzer jumbo jili ในช่วงสองสามทศวรรษที่ผ่านมา ความก้าวหน้าทางเทคโนโลยีอย่างไม่เคยปรากฏมาก่อนทำให้เราอัปเกรดและปรับปรุงโครงสร้างพื้นฐานส่วนใหญ่ของเราให้ทันสมัย ​​และแก้ปัญหาด้านลอจิสติกส์ที่มีมายาวนานมากมาย ตัวอย่างเช่น แอพสมาร์ทโฟนที่ขับเคลื่อนด้วย AI ของ Babylon Health ช่วยประเมินและจัดลำดับความสำคัญผู้ป่วย 1.2 ล้านคนในลอนดอนเหนือ การโอนเงินทางอิเล็กทรอนิกส์ช่วยให้เราสามารถส่งเงินได้ทันทีเกือบทุกที่ในโลกและในช่วง 20 ปีที่ผ่านมาGPS ได้ปฏิวัติ วิธีการนำทางของเรา เราติดตามและจัดส่งสินค้าอย่างไร และเราควบคุมการจราจรอย่างไร สล็อต อย่างไรก็ตาม การเติบโตแบบทวีคูณนั้นมาพร้อมกับชุดของอุปสรรคที่ต้องสำรวจ ปัญหาที่สำคัญที่สุดคือเป็นเรื่องยากมากที่จะคาดการณ์ว่าเทคโนโลยีต่างๆ จะพัฒนาไปอย่างไร ดังนั้นจึงเป็นเรื่องยากที่จะวางแผนสำหรับอนาคตและดูแลให้มีคุณลักษณะด้านความปลอดภัยที่จำเป็นความไม่แน่นอนนี้น่าเป็นห่วงอย่างยิ่งเมื่อพูดถึงเทคโนโลยีที่อาจก่อให้เกิดความท้าทายด้านอัตถิภาวนิยม เช่น ปัญญาประดิษฐ์ เป็นต้นอย่างไรก็ตาม แม้ว่า AI ในอนาคตจะมีลักษณะที่คาดเดาไม่ได้ ความท้าทายบางอย่างก็คาดเดาได้ ในกรณีนี้ ไม่ว่าเส้นทางการพัฒนาที่เอเจนต์ AI จะใช้ในท้ายที่สุดจะเป็นอย่างไร […]

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันและสถานะของ AI Alignment กับ Rohin Shah

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันและสถานะของ AI Alignment กับ Rohin Shah

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันและสถานะของ AI Alignment กับ Rohin Shah jumbo jili การเรียนรู้การเสริมแรงผกผัน (IRL) มีบทบาทอย่างไรในการจัดตำแหน่ง AI ประเด็นใดที่ทำให้ IRL ซับซ้อน และสิ่งนี้ส่งผลต่อประโยชน์ของวิธีการเรียนรู้การกำหนดลักษณะนี้อย่างไร กระบวนทัศน์ของการจัดตำแหน่ง AI แบบใดที่เราควรใช้เมื่อพิจารณาถึงข้อกังวลดังกล่าวการเรียนรู้การเสริมแรงผกผันและสถานะของ AI Alignment กับ Rohin Shah เป็นพอดคาสต์ที่เจ็ดในซีรี่ส์ AI Alignment Podcast ซึ่งจัดโดย Lucas Perry สำหรับผู้ที่เพิ่งมาใหม่ ซีรีส์นี้ครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง เราจะหารือกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในด้านต่างๆ เช่น แมชชีนเลิร์นนิง ธรรมาภิบาล […]

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell (Beneficial AGI 2019)

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell (Beneficial AGI 2019)

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell (Beneficial AGI 2019) jumbo jili อะไรเป็นแรงจูงใจในการเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วม? เราได้อะไรจากการปรับบริบทความพยายามด้านความปลอดภัยของเราใหม่จากมุมมองของ CIRL ระบบ Pre-AGI มีบทบาทใดในการขยายกระบวนการเชิงบรรทัดฐานการเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell เป็นพอดคาสต์ที่แปดในชุด AI Alignment Podcast ซึ่งจัดโดย Lucas Perry และได้รับการบันทึกไว้ในการประชุม Beneficial AGI 2018 ในเปอร์โตริโก สำหรับผู้ที่ยังใหม่ ชุดนี้ครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง ลูคัสจะพูดคุยกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในด้านต่างๆ เช่น แมชชีนเลิร์นนิง ธรรมาภิบาล จริยธรรม ปรัชญา และจิตวิทยาที่เกี่ยวข้องกับโครงการสร้าง […]

AI Alignment Podcast: ปัญหานายพลไบแซนไทน์ การวางยาพิษ และการเรียนรู้ของเครื่องแบบกระจายกับ El Mahdi El Mhamdi (Beneficial AGI 2019)

AI Alignment Podcast: ปัญหานายพลไบแซนไทน์ การวางยาพิษ และการเรียนรู้ของเครื่องแบบกระจายกับ El Mahdi El Mhamdi (Beneficial AGI 2019)

AI Alignment Podcast: ปัญหานายพลไบแซนไทน์ การวางยาพิษ และการเรียนรู้ของเครื่องแบบกระจายกับ El Mahdi El Mhamdi (Beneficial AGI 2019) jumbo jili แม่ทัพสามคนโหวตว่าจะโจมตีหรือหนีจากการล้อมปราสาท นายพลคนหนึ่งทุจริตและสองคนไม่ได้ จะเกิดอะไรขึ้นเมื่อนายพลที่ทุจริตส่งคำตอบที่แตกต่างกันไปยังนายพลอีกสองคนความผิดไบเซนไทน์คือ“ สภาพของระบบคอมพิวเตอร์กระจายโดยเฉพาะอย่างยิ่งระบบที่ส่วนประกอบอาจล้มเหลวและมีข้อมูลที่ไม่สมบูรณ์อยู่กับว่าเป็นองค์ประกอบที่ล้มเหลวในการคำนวณ คำนี้ใช้ชื่อจากอุปมานิทัศน์ “ปัญหานายพลไบแซนไทน์” พัฒนาขึ้นเพื่ออธิบายสภาวะนี้ โดยที่นักแสดงต้องเห็นด้วยกับกลยุทธ์ร่วมกันเพื่อหลีกเลี่ยงความล้มเหลวของระบบที่ร้ายแรง แต่นักแสดงบางคนไม่น่าเชื่อถือ “ สล็อต ปัญหาของนายพลไบแซนไทน์และปัญหาที่เกี่ยวข้องในการรักษาเครือข่ายคอมพิวเตอร์แบบกระจายที่เชื่อถือได้นั้นส่องสว่างสำหรับทั้งการจัดตำแหน่ง AI และเครือข่ายสมัยใหม่ที่เราโต้ตอบด้วยเช่น Youtube, Facebook หรือ Google การสำรวจพื้นที่นี้ทำให้เราเห็นข้อจำกัดของการคำนวณแบบกระจายที่เชื่อถือได้ ข้อกังวลด้านความปลอดภัยและภัยคุกคามในพื้นที่นี้ และการแลกเปลี่ยนที่เราจะต้องทำเพื่อระดับประสิทธิภาพหรือความปลอดภัยที่แตกต่างกันThe Byzantine Generals’ Problem, Poisoning, and Distributed Machine Learning with […]