Get in my Think Art.

Tag: Alignment

AI Alignment Podcast: หลักธรรมของความสุข ความทุกข์ และปัญญาประดิษฐ์กับ Brian Tomasik และ David Pearce

AI Alignment Podcast: หลักธรรมของความสุข ความทุกข์ และปัญญาประดิษฐ์กับ Brian Tomasik และ David Pearce

AI Alignment Podcast: หลักธรรมของความสุข ความทุกข์ และปัญญาประดิษฐ์กับ Brian Tomasik และ David Pearce jumbo jili metaethics มีบทบาทอย่างไรในการจัดแนว AI และความปลอดภัย? เส้นทางสู่การจัดตำแหน่ง AI จะเปลี่ยนไปอย่างไรเมื่อพิจารณาจากมุมมองเชิงอภิปรัชญาที่ต่างกัน ประเด็นในญาณวิทยา แรงจูงใจ และความชอบธรรมส่งผลต่อการจัดตำแหน่งค่านิยมอย่างไร? สถานะเลื่อนลอยของความทุกข์และความสุขคืออะไร? อะไรคือความแตกต่างระหว่างสัจนิยมทางศีลธรรมและการต่อต้านสัจนิยม และแต่ละมุมมองมีพื้นฐานมาจากอะไร? และสิ่งนี้เกี่ยวข้องอะไรกับ AI จริงๆ? สล็อต Metaethics of Joy, Suffering และ AI Alignment เป็นพอดคาสต์ที่สี่ในชุด AI Alignment ใหม่ ซึ่งจัดโดย Lucas Perry สำหรับผู้ที่ยังใหม่ […]

AI Alignment Podcast: ความไม่แน่นอนทางศีลธรรมและเส้นทางสู่ AI Alignment กับ William MacAskill

AI Alignment Podcast: ความไม่แน่นอนทางศีลธรรมและเส้นทางสู่ AI Alignment กับ William MacAskill

AI Alignment Podcast: ความไม่แน่นอนทางศีลธรรมและเส้นทางสู่ AI Alignment กับ William MacAskill jumbo jili เราจะก้าวหน้าในการจัดตำแหน่ง AI ได้อย่างไรเนื่องจากความไม่แน่นอนทางศีลธรรม? อะไรคือวิธีในอุดมคติในการแก้ไขระบบค่านิยมที่ขัดแย้งกันและมุมมองด้านศีลธรรมระหว่างบุคคล? เราควรดำเนินการเกี่ยวกับการจัดตำแหน่ง AI อย่างไรเนื่องจากเราไม่แน่ใจเกี่ยวกับทฤษฎีเชิงบรรทัดฐานและเชิงอภิปรัชญาของเรา? ควรรวบรวมความชอบและบุคคลในอุดมคติอย่างไรในบริบทของความไม่แน่นอนของเรา สล็อต ความไม่แน่นอนทางศีลธรรมและเส้นทางสู่ AI Alignment กับ William MacAskill เป็นพอดคาสต์ที่ห้าในซีรี่ส์ AI Alignment ใหม่ ซึ่งจัดโดย Lucas Perry สำหรับผู้ที่ยังใหม่ ซีรีส์นี้จะครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง เราจะหารือกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในด้านต่างๆ เช่น แมชชีนเลิร์นนิง ความปลอดภัยของ AI […]

AI Alignment Podcast: ในการกลายเป็นความจริงทางศีลธรรมกับ Peter Singer

AI Alignment Podcast: ในการกลายเป็นความจริงทางศีลธรรมกับ Peter Singer

AI Alignment Podcast: ในการกลายเป็นความจริงทางศีลธรรมกับ Peter Singer jumbo jili มีข้อเท็จจริงเช่นข้อเท็จจริงทางศีลธรรมหรือไม่? ถ้าเป็นเช่นนั้นเราจะสามารถเข้าถึงพวกเขาได้อย่างไร ปีเตอร์ ซิงเกอร์ เริ่มต้นอาชีพของเขาในฐานะผู้ชอบผลประโยชน์และต่อต้านสัจนิยมทางศีลธรรม จากนั้นเมื่อเวลาผ่านไปก็กลายเป็นผู้ชอบใช้ประโยชน์ตามหลักศีลธรรมและเป็นนักสัจนิยมทางศีลธรรม การเปลี่ยนแปลงดังกล่าวเกิดขึ้นได้อย่างไร และตำแหน่งใดที่สามารถป้องกันได้ดีกว่ากัน? วัตถุนิยมในจริยธรรมอาจส่งผลต่อการจัดตำแหน่ง AI อย่างไร ทั้งหมดนี้มีความหมายต่ออนาคตของ AI อย่างไร สล็อต เรื่อง Becoming a Moral Realist with Peter Singer เป็นพอดคาสต์ที่หกในซีรีส์ AI Alignment ซึ่งจัดโดย Lucas Perry สำหรับผู้ที่ยังใหม่ ซีรีส์นี้จะครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง เราจะหารือกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในด้านต่างๆ […]

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันและสถานะของ AI Alignment กับ Rohin Shah

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันและสถานะของ AI Alignment กับ Rohin Shah

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันและสถานะของ AI Alignment กับ Rohin Shah jumbo jili การเรียนรู้การเสริมแรงผกผัน (IRL) มีบทบาทอย่างไรในการจัดตำแหน่ง AI ประเด็นใดที่ทำให้ IRL ซับซ้อน และสิ่งนี้ส่งผลต่อประโยชน์ของวิธีการเรียนรู้การกำหนดลักษณะนี้อย่างไร กระบวนทัศน์ของการจัดตำแหน่ง AI แบบใดที่เราควรใช้เมื่อพิจารณาถึงข้อกังวลดังกล่าวการเรียนรู้การเสริมแรงผกผันและสถานะของ AI Alignment กับ Rohin Shah เป็นพอดคาสต์ที่เจ็ดในซีรี่ส์ AI Alignment Podcast ซึ่งจัดโดย Lucas Perry สำหรับผู้ที่เพิ่งมาใหม่ ซีรีส์นี้ครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง เราจะหารือกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในด้านต่างๆ เช่น แมชชีนเลิร์นนิง ธรรมาภิบาล […]

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell (Beneficial AGI 2019)

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell (Beneficial AGI 2019)

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell (Beneficial AGI 2019) jumbo jili อะไรเป็นแรงจูงใจในการเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วม? เราได้อะไรจากการปรับบริบทความพยายามด้านความปลอดภัยของเราใหม่จากมุมมองของ CIRL ระบบ Pre-AGI มีบทบาทใดในการขยายกระบวนการเชิงบรรทัดฐานการเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell เป็นพอดคาสต์ที่แปดในชุด AI Alignment Podcast ซึ่งจัดโดย Lucas Perry และได้รับการบันทึกไว้ในการประชุม Beneficial AGI 2018 ในเปอร์โตริโก สำหรับผู้ที่ยังใหม่ ชุดนี้ครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง ลูคัสจะพูดคุยกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในด้านต่างๆ เช่น แมชชีนเลิร์นนิง ธรรมาภิบาล จริยธรรม ปรัชญา และจิตวิทยาที่เกี่ยวข้องกับโครงการสร้าง […]

AI Alignment Podcast: ปัญหานายพลไบแซนไทน์ การวางยาพิษ และการเรียนรู้ของเครื่องแบบกระจายกับ El Mahdi El Mhamdi (Beneficial AGI 2019)

AI Alignment Podcast: ปัญหานายพลไบแซนไทน์ การวางยาพิษ และการเรียนรู้ของเครื่องแบบกระจายกับ El Mahdi El Mhamdi (Beneficial AGI 2019)

AI Alignment Podcast: ปัญหานายพลไบแซนไทน์ การวางยาพิษ และการเรียนรู้ของเครื่องแบบกระจายกับ El Mahdi El Mhamdi (Beneficial AGI 2019) jumbo jili แม่ทัพสามคนโหวตว่าจะโจมตีหรือหนีจากการล้อมปราสาท นายพลคนหนึ่งทุจริตและสองคนไม่ได้ จะเกิดอะไรขึ้นเมื่อนายพลที่ทุจริตส่งคำตอบที่แตกต่างกันไปยังนายพลอีกสองคนความผิดไบเซนไทน์คือ“ สภาพของระบบคอมพิวเตอร์กระจายโดยเฉพาะอย่างยิ่งระบบที่ส่วนประกอบอาจล้มเหลวและมีข้อมูลที่ไม่สมบูรณ์อยู่กับว่าเป็นองค์ประกอบที่ล้มเหลวในการคำนวณ คำนี้ใช้ชื่อจากอุปมานิทัศน์ “ปัญหานายพลไบแซนไทน์” พัฒนาขึ้นเพื่ออธิบายสภาวะนี้ โดยที่นักแสดงต้องเห็นด้วยกับกลยุทธ์ร่วมกันเพื่อหลีกเลี่ยงความล้มเหลวของระบบที่ร้ายแรง แต่นักแสดงบางคนไม่น่าเชื่อถือ “ สล็อต ปัญหาของนายพลไบแซนไทน์และปัญหาที่เกี่ยวข้องในการรักษาเครือข่ายคอมพิวเตอร์แบบกระจายที่เชื่อถือได้นั้นส่องสว่างสำหรับทั้งการจัดตำแหน่ง AI และเครือข่ายสมัยใหม่ที่เราโต้ตอบด้วยเช่น Youtube, Facebook หรือ Google การสำรวจพื้นที่นี้ทำให้เราเห็นข้อจำกัดของการคำนวณแบบกระจายที่เชื่อถือได้ ข้อกังวลด้านความปลอดภัยและภัยคุกคามในพื้นที่นี้ และการแลกเปลี่ยนที่เราจะต้องทำเพื่อระดับประสิทธิภาพหรือความปลอดภัยที่แตกต่างกันThe Byzantine Generals’ Problem, Poisoning, and Distributed Machine Learning with […]

AI Alignment Podcast: ความรู้ความเข้าใจของมนุษย์และธรรมชาติของความฉลาดกับ Joshua Greene

AI Alignment Podcast: ความรู้ความเข้าใจของมนุษย์และธรรมชาติของความฉลาดกับ Joshua Greene

AI Alignment Podcast: ความรู้ความเข้าใจของมนุษย์และธรรมชาติของความฉลาดกับ Joshua Greene jumbo jili “ วิธีทำเรารวมแนวคิดความคิดรูปแบบ? ความคิดเดียวกันนี้จะแสดงออกมาในรูปของคำพูดได้อย่างไร เมื่อเทียบกับสิ่งที่คุณมองเห็นหรือได้ยินในดวงตาและหูของจิตใจ สมองของคุณแยกแยะสิ่งที่คิดจากสิ่งที่เชื่อจริง ๆ ได้อย่างไร ถ้าฉันเล่าเรื่องประกอบให้คุณฟัง เมื่อวานฉันเล่นบาสเก็ตบอลกับเลอบรอน เจมส์ บางทีคุณอาจจะเชื่อฉัน แล้วฉันก็พูดว่า โอ้ ฉันแค่ล้อเล่น มันไม่ได้เกิดขึ้นจริงๆ คุณยังคงมีความคิดอยู่ในหัว แต่ในกรณีหนึ่ง คุณกำลังนำเสนอว่าเป็นสิ่งที่จริง ในอีกกรณีหนึ่ง คุณกำลังแสดงเป็นบางสิ่งที่เป็นเท็จ หรือบางทีคุณอาจกำลังแสดงสิ่งนั้นว่าเป็นสิ่งที่อาจเป็นจริง และคุณ’ ไม่แน่ใจ สำหรับสัตว์ส่วนใหญ่ ความคิดที่เข้ามาในหัวจะเข้ามาโดยการรับรู้ และค่าเริ่มต้นก็คือความคิดเหล่านั้นเท่านั้น แต่มนุษย์มีความสามารถในการสร้างความบันเทิงให้กับความคิดทุกประเภทโดยไม่ต้องเชื่อ คุณสามารถเชื่อได้ว่ามันเป็นเท็จ หรือคุณอาจเป็นคนไม่เชื่อเรื่องพระเจ้า และนั่นไม่ใช่สิ่งสำคัญสำหรับการเก็งกำไรเท่านั้น แต่ยังจำเป็นสำหรับการวางแผน คุณต้องสามารถจินตนาการถึงความเป็นไปได้ที่ยังไม่เกิดขึ้นจริง นี่คือสิ่งที่เรากำลังพยายามทำความเข้าใจ จากนั้นฉันคิดว่าโครงการทำความเข้าใจวิธีที่มนุษย์ทำนั้นค่อนข้างขนานกับโครงการพยายามสร้างปัญญาประดิษฐ์ทั่วไป” -โจชัว กรีน สล็อต […]

AI Alignment Podcast: การจัดตำแหน่ง AI ผ่านการโต้วาทีกับ Geoffrey Irving

AI Alignment Podcast: การจัดตำแหน่ง AI ผ่านการโต้วาทีกับ Geoffrey Irving

AI Alignment Podcast: การจัดตำแหน่ง AI ผ่านการโต้วาทีกับ Geoffrey Irving jumbo jili “ในการทำให้ระบบ AI มีประโยชน์อย่างกว้างขวางสำหรับงานที่ท้าทายในโลกแห่งความเป็นจริง เราต้องการให้พวกเขาเรียนรู้ เป้าหมายและความชอบของมนุษย์ที่ซับซ้อน วิธีการหนึ่งในการกำหนดเป้าหมายที่ซับซ้อนขอให้มนุษย์ ตัดสินระหว่างการฝึกอบรมว่าพฤติกรรมของเจ้าหน้าที่ใดปลอดภัยและมีประโยชน์ แต่วิธีการนี้อาจล้มเหลวได้หาก งานซับซ้อนเกินไปที่มนุษย์จะตัดสินได้โดยตรง เพื่อช่วยแก้ไขข้อกังวลนี้ เราขอเสนอ ตัวแทนการฝึกอบรมผ่านการเล่นด้วยตนเองในเกมโต้วาทีที่ไม่มีผลรวม เมื่อได้รับคำถามหรือการดำเนินการที่เสนอ เจ้าหน้าที่สองคนผลัดกันเขียนข้อความสั้นๆ จนถึงขีดจำกัด จากนั้นผู้พิพากษาที่เป็นมนุษย์ซึ่ง ตัวแทนให้ข้อมูลที่เป็นประโยชน์และเป็นจริงมากที่สุด… ในทางปฏิบัติ งานอภิปรายเกี่ยวข้องกับคำถามเชิงประจักษ์หรือไม่ เกี่ยวกับมนุษย์และงานที่เราต้องการให้ AI ดำเนินการ รวมทั้งคำถามเชิงทฤษฎีเกี่ยวกับ ความหมายของการจัดตำแหน่ง AI” ความปลอดภัยของ AI ผ่านการโต้วาที สล็อต การอภิปรายเป็นสิ่งที่เราทุกคนคุ้นเคย โดยปกติแล้วจะเกี่ยวข้องกับบุคคลตั้งแต่สองคนขึ้นไปให้การโต้แย้งและโต้แย้งในคำถามบางข้อเพื่อพิสูจน์ข้อสรุป ที่OpenAIกำลังสำรวจการอภิปรายเป็นวิธีการจัดแนว AI สำหรับการเรียนรู้รางวัล (เรียนรู้สิ่งที่มนุษย์ต้องการ) […]

AI Alignment Podcast: ภาพรวมของการจัดแนว AI ทางเทคนิคกับ Rohin Shah (ตอนที่ 1)

AI Alignment Podcast: ภาพรวมของการจัดแนว AI ทางเทคนิคกับ Rohin Shah (ตอนที่ 1)

AI Alignment Podcast: ภาพรวมของการจัดแนว AI ทางเทคนิคกับ Rohin Shah (ตอนที่ 1) jumbo jili พื้นที่ของการวิจัยการจัดตำแหน่ง AI นั้นมีไดนามิกสูงและมักจะเป็นเรื่องยากที่จะได้ภาพทิวทัศน์จากมุมสูง พอดคาสต์นี้เป็นส่วนแรกของสองส่วนที่พยายามแก้ไขบางส่วนโดยให้ภาพรวมขององค์กรที่เข้าร่วมในการวิจัย AI ทางเทคนิค ทิศทางการวิจัยเฉพาะของพวกเขา และวิธีที่แนวทางเหล่านี้ทั้งหมดมารวมกันเพื่อประกอบเป็นความพยายามในการจัดแนว AI ทางเทคนิค ในส่วนแรกนี้ Rohin เคลื่อนตัวตามลำดับผ่านองค์กรวิจัยทางเทคนิคในพื้นที่นี้และแกะสลักผ่านพื้นที่นี้ด้วยปรัชญาการวิจัยที่แตกต่างกัน นอกจากนี้เรายังเจาะลึกข้อมูลเฉพาะของแนวทางต่างๆ มากมายในด้านความปลอดภัยของ AI สำรวจจุดที่พวกเขาไม่เห็นด้วย หารือเกี่ยวกับคุณสมบัติต่างๆ ที่พยายามพัฒนา/รักษา และรับฟังความคิดเห็นของ Rohin ในแนวทางต่างๆ เหล่านี้ สล็อต ในพอดแคสต์นี้ ลูคัสได้พูดคุยกับโรฮิน ชาห์ Rohin เป็นนักศึกษาปริญญาเอกปีที่ 5 ที่ UC Berkeley […]

AI Alignment Podcast: ภาพรวมของการจัดแนว AI ทางเทคนิคกับ Rohin Shah

AI Alignment Podcast: ภาพรวมของการจัดแนว AI ทางเทคนิคกับ Rohin Shah

AI Alignment Podcast: ภาพรวมของการจัดแนว AI ทางเทคนิคกับ Rohin Shah jumbo jili พื้นที่ของการวิจัยการจัดตำแหน่ง AI นั้นมีไดนามิกสูงและมักจะเป็นเรื่องยากที่จะได้ภาพทิวทัศน์จากมุมสูง พอดคาสต์นี้เป็นส่วนที่สองในสองส่วนที่พยายามแก้ไขบางส่วนโดยให้ภาพรวมของความพยายามในการจัดตำแหน่ง AI ทางเทคนิค โดยเฉพาะอย่างยิ่ง ตอนนี้พยายามที่จะดำเนินการอภิปรายต่อจากส่วนที่ 1 โดยเจาะลึกมากขึ้นเกี่ยวกับแนวทางเฉพาะในการจัดตำแหน่ง AI ในพอดแคสต์นี้ ลูคัสได้พูดคุยกับโรฮิน ชาห์ Rohin เป็นนักศึกษาปริญญาเอกปีที่ 5 ที่ UC Berkeley โดยมี Center for Human-Compatible AIทำงานร่วมกับ Anca Dragan, Pieter Abbeel และ Stuart Russell ทุกสัปดาห์เขาเก็บรวบรวมและสรุปความคืบหน้าล่าสุดที่เกี่ยวข้องกับ AI การจัดตำแหน่งในการจัดจดหมายข่าว […]