Get in my Think Art.

Day: September 6, 2021

FLI Podcast: แจกจ่ายประโยชน์ของ AI ผ่าน Windfall Clause กับ Cullen O’Keefe

FLI Podcast: แจกจ่ายประโยชน์ของ AI ผ่าน Windfall Clause กับ Cullen O’Keefe

FLI Podcast: แจกจ่ายประโยชน์ของ AI ผ่าน Windfall Clause กับ Cullen O’Keefe jumbo jili เช่นเดียวกับการปฏิวัติทางการเกษตรและอุตสาหกรรมก่อนหน้านั้น การปฏิวัติด้านข่าวกรองที่กำลังดำเนินอยู่ในขณะนี้จะปลดล็อกองศาและความอุดมสมบูรณ์ใหม่ๆ รูปแบบที่มีประสิทธิภาพของ AI จะสร้างระดับความมั่งคั่งที่ไม่เคยมีมาก่อน ทำให้เกิดคำถามที่สำคัญเกี่ยวกับผู้รับผลประโยชน์ ความมั่งคั่งที่เพิ่งค้นพบนี้จะถูกนำไปใช้เพื่อประโยชน์ส่วนรวมหรือจะกระจุกตัวอยู่ในมือของคนเพียงไม่กี่คนที่ใช้เทคโนโลยี AI มากขึ้นหรือไม่? Cullen O’Keefe เข้าร่วมกับเราในตอนนี้ของ FLI Podcast สำหรับการสนทนาเกี่ยวกับ Windfall Clause ซึ่งเป็นกลไกที่พยายามรับประกันความอุดมสมบูรณ์และความมั่งคั่งที่สร้างขึ้นโดย AI ที่เปลี่ยนแปลงได้เป็นประโยชน์ต่อมนุษยชาติทั่วโลก สล็อต ลูคัส เพอร์รี่: ยินดีต้อนรับสู่พอดคาสต์สถาบันชีวิตแห่งอนาคต ฉันลูคัส เพอร์รี่ การสนทนาในวันนี้กับ Cullen O’Keefe เกี่ยวกับรายงานล่าสุดที่เขาเป็นผู้นำในหัวข้อ The Windfall Clause: […]

AI Alignment Podcast: เกี่ยวกับอาวุธทำลายล้างอัตโนมัติกับ Paul Scharre

AI Alignment Podcast: เกี่ยวกับอาวุธทำลายล้างอัตโนมัติกับ Paul Scharre

AI Alignment Podcast: เกี่ยวกับอาวุธทำลายล้างอัตโนมัติกับ Paul Scharre jumbo jili อาวุธสังหารอัตโนมัติที่ร้ายแรงเป็นตัวแทนของการย่อขนาดแบบใหม่และการผสานรวมเทคโนโลยี AI และหุ่นยนต์สมัยใหม่สำหรับการใช้งานทางทหาร เทคโนโลยีที่เกิดขึ้นใหม่นี้จึงแสดงถึงจุดเปลี่ยนที่สำคัญในการพัฒนาการกำกับดูแล AI ไม่ว่าเราจะอนุญาตให้ AI ตัดสินใจปลิดชีวิตมนุษย์หรือไม่ และจุดที่เราขีดเส้นรอบ ๆ การใช้เทคโนโลยีนี้ที่ยอมรับและยอมรับไม่ได้จะเป็นตัวกำหนดแบบอย่างและพื้นฐานสำหรับการทำงานร่วมกันและการกำกับดูแล AI ระหว่างประเทศในอนาคต ความพยายามในการออกกฎระเบียบหรือการขาดดังกล่าวจะกำหนดประเภทของเทคโนโลยีอาวุธที่แพร่หลายในศตวรรษที่ 21 ในตอนนี้ของ AI Alignment Podcast Paul Scharre เข้าร่วมกับเราเพื่อหารือเกี่ยวกับอาวุธอัตโนมัติ ประโยชน์และความเสี่ยงที่อาจเกิดขึ้น และการอภิปรายอย่างต่อเนื่องเกี่ยวกับกฎระเบียบของการพัฒนาและการใช้งาน สล็อต ลูคัส เพอร์รี่: ยินดีต้อนรับสู่ AI Alignment Podcast ฉันลูคัส เพอร์รี่ การสนทนาในวันนี้คือกับ Paul Scharre และสำรวจปัญหาอาวุธอิสระที่ทำให้ตายได้ […]

AI Alignment Podcast: ภาพรวมของการจัดตำแหน่ง AI ทางเทคนิคในปี 2018 และ 2019 กับ Buck Shlegeris และ Rohin Shah

AI Alignment Podcast: ภาพรวมของการจัดตำแหน่ง AI ทางเทคนิคในปี 2018 และ 2019 กับ Buck Shlegeris และ Rohin Shah

AI Alignment Podcast: ภาพรวมของการจัดตำแหน่ง AI ทางเทคนิคในปี 2018 และ 2019 กับ Buck Shlegeris และ Rohin Shah jumbo jili เพียงแค่ปีที่ผ่านมาเราได้เปิดตัวสองส่วนกรณีบรรดาศักดิ์ภาพรวมของเทคนิค AI จัด กับ Rohin อิหร่าน การสนทนาดังกล่าวให้รายละเอียดเกี่ยวกับมุมมองขององค์กรวิจัยการจัดตำแหน่ง AI ส่วนกลางและความพยายามในการวิจัยอย่างต่อเนื่องจำนวนมากสำหรับการออกแบบระบบที่ปลอดภัยและสอดคล้องกัน มีอะไรเกิดขึ้นมากมายในช่วงสิบสองเดือนที่ผ่านมา ดังนั้นเราจึงเชิญ Rohin ร่วมกับ Buck Shlegeris เพื่อนร่วมงานนักวิจัย กลับมาพูดคุยเพื่อติดตามผล ในตอนนี้จะเน้นไปที่สถานะของความพยายามในการวิจัยในปัจจุบันสำหรับ AI ที่เป็นประโยชน์ รวมถึงความคิดของ Buck และ Rohin เกี่ยวกับวิธีการที่แตกต่างกันและความยากลำบากที่เรายังคงเผชิญอยู่ พอดคาสต์นี้ทำหน้าที่เป็นภาพรวมโดยย่อว่าเขตข้อมูลของการจัดตำแหน่ง AI ได้รับการอัปเดตอย่างไรและความก้าวหน้าของความคิดเป็นอย่างไร […]

การมองการณ์ไกลในจดหมายเปิดผนึกระเบียบ AI

การมองการณ์ไกลในจดหมายเปิดผนึกระเบียบ AI

การมองการณ์ไกลในจดหมายเปิดผนึกระเบียบ AI jumbo jili การเกิดขึ้นของปัญญาประดิษฐ์ (AI) สัญญาการเปลี่ยนแปลงอย่างมากในโครงสร้างทางเศรษฐกิจและสังคมของเราตลอดจนชีวิตประจำวันในยุโรปและที่อื่น ๆ มันถูกเปรียบเทียบกับทั้งไฟฟ้าและอินเทอร์เน็ต ทั้งสองเป็นแบบทั่วไป แพร่หลาย และเปลี่ยนโฉมหน้าโลก แต่การเปรียบเทียบทางอินเทอร์เน็ตนั้นเหมาะสมกว่า เพราะในขณะที่ไฟฟ้าต้องการมาตรฐานและระเบียบข้อบังคับ แต่ก็ใช้งานได้ตามปกติ แต่การทำงานของอินเทอร์เน็ตและเศรษฐกิจส่วนใหญ่ถูกกำหนดโดยการเลือกนโยบายที่สำคัญระหว่างทาง ตอนนี้เราอยู่ในยุคแรก ๆ ของ AI และทางเลือกที่เราทำในทศวรรษหน้าจะเป็นตัวกำหนดตำแหน่งและความสัมพันธ์กับสังคมอย่างมาก เราขอชื่นชมคณะกรรมาธิการยุโรปที่จัดการกับความท้าทายในการกำหนดบทบาทที่รัฐบาลสามารถและควรเล่น และสนับสนุนกฎระเบียบที่มีความหมายของระบบ AI ในพื้นที่การใช้งานที่มีความเสี่ยงสูง สล็อต คณะกรรมาธิการจะได้รับข้อเสนอแนะโดยละเอียดจากหลายบริษัท กลุ่มอุตสาหกรรม และกลุ่มนักคิดที่แสดงถึงความสนใจของตนเองและผู้อื่นอย่างไม่ต้องสงสัย ซึ่งในบางกรณีอาจเกี่ยวข้องกับการลดความเข้มงวดของกฎระเบียบและมองข้ามความเสี่ยงที่อาจเกิดขึ้นที่เกี่ยวข้องกับ AI เราหวังว่าคณะกรรมาธิการจะยืนหยัดในการกระทำทั้งสองอย่าง ยิ่งไปกว่านั้น ในฐานะผู้เชี่ยวชาญที่มีส่วนร่วมในการพัฒนาเทคโนโลยีหลักมาหลายปีหรือหลายสิบปี เราขอเน้นย้ำจุดสำคัญจุดหนึ่งว่า แม้จะเป็นการยากที่จะคาดการณ์ว่าความก้าวหน้าทางเทคโนโลยีจะเกิดขึ้นได้เร็วเพียงใด แต่เป็นการง่ายที่จะคาดการณ์ว่า มันจะเกิดขึ้น ดังนั้น จึงมีความจำเป็นที่จะต้องพิจารณา AI ไม่ใช่แค่ในปัจจุบัน ซึ่งแสดงโดยกลุ่มเฉพาะบางกลุ่มของระบบการเรียนรู้ของเครื่องที่ขับเคลื่อนด้วยข้อมูล แต่ในรูปแบบที่มีแนวโน้มว่าจะใช้AI ทำได้และจะมีในหลายรูปแบบ […]

Steven Pinker และ Stuart Russell เกี่ยวกับพื้นฐาน ประโยชน์ และภัยคุกคามที่อาจเกิดขึ้นจาก AI

Steven Pinker และ Stuart Russell เกี่ยวกับพื้นฐาน ประโยชน์ และภัยคุกคามที่อาจเกิดขึ้นจาก AI

Steven Pinker และ Stuart Russell เกี่ยวกับพื้นฐาน ประโยชน์ และภัยคุกคามที่อาจเกิดขึ้นจาก AI jumbo jili ตลอดหลายศตวรรษที่ผ่านมา สภาพของมนุษย์เปลี่ยนแปลงไปอย่างมากจากการปฏิวัติทางการเกษตรและอุตสาหกรรม ด้วยการสร้างสรรค์และพัฒนา AI อย่างต่อเนื่อง เรายืนอยู่ท่ามกลางการปฏิวัติทางปัญญาที่กำลังดำเนินอยู่ซึ่งอาจพิสูจน์ได้ว่ามีการเปลี่ยนแปลงมากกว่าสองครั้งก่อนหน้านี้ เรามาที่นี่ได้อย่างไร และรากฐานทางปัญญาที่จำเป็นสำหรับการสร้าง AI คืออะไร? ประโยชน์ที่เราอาจได้รับจากระบบ AI ที่สอดคล้อง และความเสี่ยงและข้อผิดพลาดที่อาจเกิดขึ้นระหว่างทางคืออะไร? ในระยะยาว ระบบ AI ที่ชาญฉลาดจะก่อให้เกิดความเสี่ยงต่อมนุษยชาติหรือไม่? Steven Pinker นักเขียนหนังสือขายดีและศาสตราจารย์ด้านจิตวิทยาที่ Harvard และ Stuart Russell ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ของ UC Berkeley เข้าร่วมตอนนี้ของ AI Alignment Podcast เพื่อหารือเกี่ยวกับคำถามเหล่านี้และอีกมากมาย สล็อต […]

Evan Hubinger เกี่ยวกับการจัดตำแหน่งภายใน การจัดตำแหน่งภายนอก และข้อเสนอสำหรับการสร้าง AI ขั้นสูงที่ปลอดภัย

Evan Hubinger เกี่ยวกับการจัดตำแหน่งภายใน การจัดตำแหน่งภายนอก และข้อเสนอสำหรับการสร้าง AI ขั้นสูงที่ปลอดภัย

Evan Hubinger เกี่ยวกับการจัดตำแหน่งภายใน การจัดตำแหน่งภายนอก และข้อเสนอสำหรับการสร้าง AI ขั้นสูงที่ปลอดภัย jumbo jili เป็นที่ยอมรับในวรรณคดีการจัดตำแหน่ง AI ว่าจะเกิดอะไรขึ้นเมื่อระบบ AI ได้เรียนรู้หรือได้รับวัตถุประสงค์ที่ไม่ได้ครอบคลุมสิ่งที่เราต้องการอย่างเต็มที่ ความพึงใจและค่านิยมของมนุษย์ถูกละทิ้งอย่างหลีกเลี่ยงไม่ได้ และ AI ซึ่งน่าจะเป็นเครื่องมือเพิ่มประสิทธิภาพที่ทรงพลัง จะใช้ประโยชน์จากมิติของเสรีภาพที่เกิดจากวัตถุประสงค์ที่ระบุไม่ถูกต้อง และตั้งค่าให้เป็นค่าสุดโต่ง ซึ่งอาจช่วยให้การเพิ่มประสิทธิภาพเป้าหมายในหน้าที่วัตถุประสงค์ดีขึ้น แต่อาจมีผลร้ายแรงสำหรับความชอบและค่านิยมของมนุษย์ที่ระบบไม่สามารถพิจารณาได้ เป็นไปได้ไหมที่การเยื้องศูนย์จะเกิดขึ้นระหว่างแบบจำลองที่กำลังฝึกกับฟังก์ชันวัตถุประสงค์ที่ใช้สำหรับการฝึก? คำตอบดูเหมือนใช่ สล็อต ลูคัส เพอร์รี่:ยินดีต้อนรับสู่ AI Alignment Podcast ฉันลูคัส เพอร์รี่ วันนี้เรามีการสนทนากับ Evan Hubinger เกี่ยวกับแนวคิดในผลงานสองชิ้นของเขา: ภาพรวมของข้อเสนอ 11 ข้อสำหรับการสร้าง AI ขั้นสูงที่ปลอดภัยและความเสี่ยงจากการเพิ่มประสิทธิภาพการเรียนรู้ในระบบการเรียนรู้ของเครื่องขั้นสูง แนวคิดบางส่วนที่กล่าวถึงในพอดคาสต์นี้ ได้แก่ การจัดตำแหน่งภายใน การจัดตำแหน่งภายนอก […]