Get in my Think Art.

พอดคาสต์: AI และปัญหาการจัดตำแหน่งคุณค่ากับ Meia Chita-Tegmark และ Lucas Perry

พอดคาสต์: AI และปัญหาการจัดตำแหน่งคุณค่ากับ Meia Chita-Tegmark และ Lucas Perry

พอดคาสต์: AI และปัญหาการจัดตำแหน่งคุณค่ากับ Meia Chita-Tegmark และ Lucas Perry

jumbo jili

การสร้างปัญญาประดิษฐ์ที่เป็นประโยชน์หมายความว่าอย่างไร เราจะคาดหวังให้ AI สอดคล้องกับค่านิยมของมนุษย์ได้อย่างไร หากมนุษย์ไม่เห็นด้วยกับสิ่งที่เราให้ความสำคัญ การสร้าง AI ที่ปลอดภัยและเป็นประโยชน์นั้นเกี่ยวข้องกับปัญหาการวิจัยทางเทคนิคที่ยุ่งยาก แต่ก็ต้องการข้อมูลจากนักปรัชญา นักจริยธรรม และนักจิตวิทยาเกี่ยวกับคำถามพื้นฐานเหล่านี้ด้วย เราจะมั่นใจได้อย่างไรว่าการทำงานร่วมกันอย่างมีประสิทธิภาพสูงสุด?

สล็อต

Ariel พูดคุยกับ Meia Chita-Tegmark และ Lucas Perry จาก FLI ในพอดคาสต์ของเดือนนี้เกี่ยวกับ ปัญหาการจัดตำแหน่งคุณค่า : ความท้าทายในการปรับเป้าหมายและการดำเนินการของระบบ AI ให้สอดคล้องกับเป้าหมายและความตั้งใจของมนุษย์
Ariel: ฉันชื่อ Ariel Conn กับ Future of Life Institute และฉันตื่นเต้นที่จะได้มี Lucas Perry และ Meia Chita-Tegmark จาก FLI มาพูดคุยกับฉันในวันนี้เพื่อพูดคุยเกี่ยวกับ AI จริยธรรม และโดยเฉพาะอย่างยิ่ง ปัญหาการจัดตำแหน่งคุณค่า แต่ก่อนอื่น หากคุณชอบพอดแคสต์ของเรา โปรดสละเวลาสักครู่เพื่อสมัครรับข้อมูลและชอบพอดแคสต์นี้ คุณสามารถหาเราได้ที่ iTunes, SoundCloud, Google Play และแพลตฟอร์มพอดคาสต์หลักอื่นๆ ทั้งหมด
และตอนนี้ AI จริยธรรม และปัญหาการจัดตำแหน่งคุณค่า อันดับแรก ให้พิจารณาข้อความที่ว่า “ฉันเชื่อว่าการทำร้ายสัตว์นั้นไม่ดี” ทีนี้ คำพูดนั้นอาจมีความหมายบางอย่างที่แตกต่างจากมังสวิรัติมากกว่าที่มันทำกับสัตว์กินเนื้อทุกชนิด ทั้งสองคนสามารถพูดได้อย่างตรงไปตรงมาว่าพวกเขาไม่ต้องการทำร้ายสัตว์ แต่วิธีที่พวกเขากำหนด “อันตราย” นั้นน่าจะแตกต่างกันมาก และความแตกต่างด้านค่านิยมเหล่านี้เป็นเรื่องธรรมดาระหว่างประเทศและวัฒนธรรม และแม้กระทั่งระหว่างบุคคลในเมืองเดียวกัน . จากนั้นเราต้องการที่จะรวม AI เข้าด้วยกัน เราจะฝึก AI ให้ตอบสนองต่อสถานการณ์อย่างมีจริยธรรมได้อย่างไร ในเมื่อผู้ที่เกี่ยวข้องยังไม่สามารถตกลงกันได้ว่าควรตอบสนองอย่างมีจริยธรรมอย่างไร
ปัญหายิ่งซับซ้อนขึ้นไปอีกเพราะบ่อยครั้งเราไม่รู้ด้วยซ้ำว่าเราต้องการอะไรสำหรับตัวเองจริง ๆ นับประสาว่าจะขอให้ AI ช่วยให้เราได้สิ่งที่ต้องการได้อย่างไร และอย่างที่เราได้เรียนรู้จากเรื่องราวของกษัตริย์ไมดาสแล้ว เราต้องระวังให้มากในสิ่งที่เราขอ นั่นคือเมื่อกษัตริย์ไมดาสขอให้มารเปลี่ยนทุกอย่างเป็นทองคำ พระองค์ไม่ได้ต้องการให้ทุกอย่างเหมือนลูกสาวและอาหารของเขาเปลี่ยนเป็นทองคำ และเราต้องการมากกว่า AI ที่เราออกแบบโดยตระหนักว่าสิ่งที่เราพูดมักมีความหมายโดยนัย แม้ว่าเราจะไม่ได้พูดอะไรอย่างชัดเจนก็ตาม ตัวอย่างเช่น หากเรากระโดดขึ้นรถอัตโนมัติและขอให้ขับเราไปที่สนามบินให้เร็วที่สุดเท่าที่เป็นไปได้ คำขอนั้นโดยปริยายเป็นการสันนิษฐานว่าในขณะที่เราอาจจะโอเคกับความเร็วปานกลางบ้าง เราก็ตั้งใจให้รถจอดนิ่ง ปฏิบัติตามกฎส่วนใหญ่ของถนน และไม่ขับเร็วจนทำให้ชีวิตใครตกอยู่ในอันตรายหรือใช้เส้นทางที่ผิดกฎหมาย นั่นคือเมื่อเราพูดว่า “เร็วที่สุด” เราหมายถึง “เร็วที่สุดเท่าที่จะเป็นไปได้ภายในกฎของกฎหมาย” และไม่ใช่ภายในกฎฟิสิกส์หรือภายในกฎของฟิสิกส์ และตัวอย่างเหล่านี้เป็นเพียงส่วนเล็กๆ ของภูเขาน้ำแข็ง เนื่องจากฉันไม่ได้พูดถึงปัญญาประดิษฐ์ทั่วไป (AGI) และวิธีที่จะพัฒนาให้เป้าหมายสอดคล้องกับค่านิยมของเรา
ดังที่ได้กล่าวไว้เมื่อไม่กี่นาทีก่อนฉันรู้สึกตื่นเต้นมากที่ได้ลูคัสและมีอามาร่วมงานกับฉันในวันนี้ Meia เป็นผู้ร่วมก่อตั้ง Future of Life Institute เธอสนใจว่าสังคมศาสตร์จะช่วยรักษา AI ให้เป็นประโยชน์ได้อย่างไร และภูมิหลังของเธออยู่ในจิตวิทยาสังคม Lucas ทำงานในโครงการที่เกี่ยวข้องกับความเสี่ยงด้าน AI และอาวุธนิวเคลียร์ที่ FLI ภูมิหลังของเขาอยู่ในปรัชญาโดยเน้นที่จริยธรรม มีอาและลูคัส ขอบคุณที่มาร่วมงานกับเราในวันนี้
มีอา: น่ายินดี ขอขอบคุณ.
ลูคัส: ขอบคุณที่พาพวกเรามา
Ariel: ดังนั้น ก่อนที่เราจะพูดถึงเรื่องอื่น หัวข้อใหญ่เรื่องหนึ่งที่เกิดขึ้นบ่อยมากเมื่อเราพูดถึง AI และจริยธรรม คือการจัดแนวค่านิยมแนวความคิดนี้ ฉันหวังว่าคุณทั้งคู่จะคุยกันได้สักนาทีว่าการจัดแนวคุณค่าคืออะไร และเหตุใดจึงสำคัญสำหรับคำถามเรื่อง AI และจริยธรรมนี้
ลูคัส: ในความเห็นของผม การจัดตำแหน่งให้คุ้มค่านั้น นำเป้าหมาย การกระทำ ความตั้งใจ และกระบวนการตัดสินใจของ AI มาปรับใช้กับสิ่งที่มนุษย์มองว่าเป็นสิ่งที่ดี หรือสิ่งที่เรามองว่ามีค่าหรือจริยธรรมของเราเป็นอย่างไร
มีอา: ดังนั้น สำหรับฉัน จากมุมมองของจิตวิทยา แน่นอน ฉันต้องให้มนุษย์เป็นศูนย์กลางของการสอบถามของฉัน ดังนั้นจากมุมมองนั้น การจัดตำแหน่งค่า … คุณสามารถคิดถึงมันในแง่ของความสัมพันธ์ระหว่างมนุษย์กับมนุษย์คนอื่นๆ แต่ฉันคิดว่ามันน่าสนใจยิ่งขึ้นเมื่อคุณเพิ่มสารประดิษฐ์ลงในส่วนผสม เพราะตอนนี้คุณมีตัวตนที่แตกต่างจากมนุษย์อย่างสิ้นเชิง แต่เราอยากให้มันยอมรับเป้าหมายและค่านิยมของเราเพื่อที่จะให้มันเป็นประโยชน์สำหรับเรา ดังนั้น ฉันคิดว่าคำถามเกี่ยวกับการจัดตำแหน่งคุณค่าเป็นหัวใจสำคัญในการทำให้ AI มีประโยชน์
ลูคัส : ครับ เพื่อขยายความในสิ่งที่ฉันพูดไปก่อนหน้านี้: ในที่สุดโครงการการจัดตำแหน่งคุณค่าก็สร้าง AI ที่เป็นประโยชน์ในที่สุด มันทำงานเกี่ยวกับความหมายของบางสิ่งที่เป็นประโยชน์ ประโยชน์ของ AI อย่างแท้จริง จากนั้นจึงเรียนรู้วิธีสร้างอินสแตนซ์ทางเทคนิคในเครื่องจักรและระบบ AI นอกจากนี้ การสร้างบริบททางสังคมและการเมืองที่เหมาะสมสำหรับงานด้านเทคนิคประเภทนั้นที่ต้องทำ และเพื่อให้สำเร็จและแสดงออกมาในเครื่องจักรและ AI ของเรา

สล็อตออนไลน์

Ariel: ดังนั้น เมื่อคุณนึกถึง AI และจริยธรรม การจัดตำแหน่งคุณค่านั้นมีความหมายเหมือนกัน เป็นอีกวิธีหนึ่งในการพูด AI และจริยธรรม หรือเป็นส่วนย่อยในหัวข้อใหญ่ของ AI และจริยธรรมนี้
Lucas: ฉันคิดว่าพวกเขามีนัยยะที่แตกต่างกัน หากใครกำลังคิดเกี่ยวกับจริยธรรม AI ฉันคิดว่าคนๆ หนึ่งมักจะเน้นไปที่จริยธรรมประยุกต์และจรรยาบรรณเชิงบรรทัดฐานมากกว่า อาจมีคนกำลังคิดเกี่ยวกับการประยุกต์ใช้ระบบ AI และอัลกอริธึมและการเรียนรู้ของเครื่องในโดเมนในปัจจุบันและในอนาคตอันใกล้ ดังนั้นเราอาจคิดถึงการทำให้เป็นละอองและสิ่งอื่น ๆ ฉันคิดว่าเมื่อมีคนคิดเกี่ยวกับการจัดตำแหน่งคุณค่า มันกว้างกว่ามากและขยายไปสู่อภิธรรมและประเภทของโซฟาและกำหนดกรอบปัญหาของจริยธรรม AI ว่าเป็นสิ่งที่เกิดขึ้นตลอดหลายทศวรรษและมีผลกระทบอย่างมาก ฉันคิดว่าการจัดตำแหน่งคุณค่ามีความหมายที่กว้างกว่าที่จริยธรรมของ AI เคยมีมา
มีอา:ฉันคิดว่ามันขึ้นอยู่กับว่าคุณกำหนดการจัดตำแหน่งค่าอย่างไร ฉันคิดว่าถ้าคุณใช้คำจำกัดความกว้างๆ ที่ลูคัสเพิ่งเสนอ ฉันคิดว่าใช่ มันอาจรวมถึงจรรยาบรรณของ AI ด้วย แต่คุณสามารถคิดให้แคบลงได้ด้วยการสร้างคุณค่าของคุณเองในระบบ AI และให้พวกเขานำเป้าหมายของคุณไปใช้ ในกรณีนั้น ฉันคิดว่ายังมีประเด็นอื่นๆ อีกเช่นกัน เพราะถ้าคุณคิดเกี่ยวกับมันจากมุมมองของจิตวิทยา มันไม่ได้เป็นเพียงว่าค่าใดได้รับการยกตัวอย่างและวิธีที่คุณทำอย่างนั้น วิธีที่คุณแก้ปัญหาทางเทคนิค แต่เราทราบด้วยว่ามนุษย์ แม้ว่าพวกเขาจะรู้ว่ามีเป้าหมายอะไรและค่านิยมใดที่พวกเขายึดถือ แต่ก็เป็นเรื่องยากมากสำหรับพวกเขาในบางครั้งที่จะปฏิบัติตามพวกเขาจริง ๆ เพราะพวกเขามีข้อ จำกัด ด้านการรับรู้และอารมณ์ทุกประเภท ดังนั้น ในกรณีนั้น ฉันคิดว่าการจัดแนวคุณค่าในความหมายที่แคบนี้ โดยพื้นฐานแล้วไม่เพียงพอ นอกจากนี้เรายังต้องคิดเกี่ยวกับ AI และการประยุกต์ใช้ AI ในแง่ของวิธีที่พวกเขาช่วยเราและทำอย่างไรให้แน่ใจว่าเราได้รับความสามารถทางปัญญาที่เราจำเป็นต้องเป็นสิ่งมีชีวิตที่มีคุณธรรมและเป็นสิ่งที่เราควรจะเป็นจริงๆไม่ใช่แค่อะไร เราคือ.
ลูคัส:ถูกต้อง. ฉันเดาว่าจะขยายสิ่งที่ฉันเพิ่งพูดไป การจัดแนวค่านิยม ฉันคิดว่าในความหมายดั้งเดิม มันคือทั้งหมด … มันกว้างขวางและครอบคลุมมากกว่าเพราะตระหนักถึงปัญหาที่แตกต่างจากจริยธรรมของ AI เพียงอย่างเดียว ฉันคิดว่าเมื่อมีคนคิดเกี่ยวกับการจัดแนวค่านิยม มีองค์ประกอบของการคิด — ค่อนข้างเกี่ยวกับจริยธรรมของเครื่องจักร แต่ยังรวมถึงประเด็นทางสังคม การเมือง เทคนิค และจริยธรรมโดยรอบเป้าหมายสุดท้ายของการสร้าง AGI ในท้ายที่สุด ในขณะที่จรรยาบรรณของ AI สามารถตีความในวงแคบกว่าได้เช่นเดียวกับกรณีเฉพาะบางประเภทที่ AI มีผลกระทบและนัยต่อชีวิตของเราในอีก 10 ปีข้างหน้า ในขณะที่การจัดแนวคุณค่าคือการคิดเกี่ยวกับการสร้างตัวอย่างจริยธรรมและเครื่องจักร และการสร้างระบบเครื่องจักรที่ยืดหยุ่น แข็งแกร่ง และเชื่อง
เอเรียล: โอเค ดังนั้น ฉันคิดว่าคำถามต่อไปของฉันจะไหลลื่นดีจริงๆ และนั่นคือที่ FLI เรามักจะเน้นที่ความเสี่ยงที่มีอยู่ ฉันหวังว่าคุณจะสามารถพูดคุยเล็กน้อยเกี่ยวกับปัญหาของการจัดตำแหน่งคุณค่าที่เชื่อมโยงกับความเสี่ยงที่มีอยู่ที่เรากังวลด้วยตัวเราเอง

jumboslot

ลูคัส:ถูกต้อง. ดังนั้นเราจึงคิดว่าระบบ AI เป็นเครื่องมือเพิ่มประสิทธิภาพที่ทรงพลังมาก เราสามารถจินตนาการได้ว่ามีรายการของอนาคตที่เป็นไปได้ทั้งหมด และสิ่งที่ดีสำหรับปัญญาคือการสร้างแบบจำลองของโลก จากนั้นให้คำมั่นสัญญาและกระทำการต่างๆ ซึ่งจำกัดชุดของโลกที่เป็นไปได้ทั้งหมดให้เป็นที่ต้องการ ดังนั้นความฉลาดจึงเป็นหนทางที่เราจะไปสู่จุดจบ และจริยธรรมคือจุดจบที่เรามุ่งมั่น ดังนั้นสิ่งเหล่านี้จึงเป็นส่วนสำคัญและทำงานร่วมกันได้อย่างไร และ AI ที่ปราศจากจริยธรรมนั้นไม่สมเหตุสมผล และวิธีการที่จริยธรรมโดยปราศจาก AI หรือความฉลาดโดยทั่วไปก็ใช้ไม่ได้ผลเช่นกัน ดังนั้นในแง่ของความเสี่ยงที่มีอยู่ มีความเป็นไปได้ในอนาคตที่ความฉลาดจะนำทางเราไปสู่จุดที่ชีวิตอัจฉริยะที่มีต้นกำเนิดจากโลกไม่มีอยู่อีกต่อไปไม่ว่าจะโดยเจตนาหรือโดยบังเอิญ
มีอา:ดังนั้นเราควรจำไว้ว่า Homo sapiens เป็นตัวแทนของความเสี่ยงต่อตัวมันเองเช่นกัน เรากำลังสร้างอาวุธนิวเคลียร์ เรามีมากกว่าที่เราต้องการ อันที่จริงมีมากมายจนเราสามารถทำลายโลกทั้งใบไปกับพวกมันได้ ไม่ต้องพูดถึงโฮโมเซเปียนส์ยังแสดงถึงความเสี่ยงที่มีอยู่สำหรับสปีชีส์อื่นทั้งหมด ปัญหาคือ AI คือเรากำลังเปิดตัวเอเจนต์ใหม่ทั้งตัวที่ตามคำจำกัดความแล้วควรจะฉลาดกว่า ทรงพลังกว่าเราและเป็นอิสระด้วย ดังที่ลูคัสกล่าวไว้ มันสำคัญมากที่จะต้องคิดให้ถี่ถ้วนว่าเรามอบหมายงานประเภทใดและความสามารถใดให้กับ AI เหล่านี้ และเราจะแน่ใจได้อย่างไรว่าพวกมันมีความอยู่รอดและความเจริญรุ่งเรืองของเผ่าพันธุ์ของเราในใจ ดังนั้น ฉันคิดว่านี่คือที่มาของการจัดตำแหน่งคุณค่าเพื่อป้องกันความเสี่ยงที่น่ากลัวและระดับโลกเหล่านี้ ซึ่งเราสามารถจินตนาการได้ว่ามาจาก AI
ลูคัส: ถูกต้อง สิ่งที่ทำให้การทำอย่างนั้นยากเหลือเกินนั้นอยู่นอกเหนือปัญหาทางเทคนิคของการมีนักวิจัย AI และนักวิจัยด้านความปลอดภัยของ AI ที่รู้วิธีทำให้ระบบ AI ทำในสิ่งที่เราต้องการได้จริงโดยไม่ต้องสร้างจักรวาลของคลิปหนีบกระดาษ นอกจากนี้ยังมีบริบททางสังคมและการเมืองที่เลวร้าย ซึ่งทั้งหมดนี้เกิดขึ้นโดยมีแรงจูงใจทางทฤษฎีเกมที่ยอดเยี่ยมจริงๆ ที่จะเป็นคนแรกที่สร้างปัญญาประดิษฐ์ทั่วไป ดังนั้นในการแข่งขันเพื่อสร้าง AI ความพยายามมากมายที่ดูเหมือนชัดเจนและจำเป็นมากเหล่านี้อาจถูกลดทอนลงเพื่อให้มีพลังงานดิบมากขึ้น ฉันคิดว่านั่นอาจเป็นหนึ่งในความเสี่ยงที่ใหญ่ที่สุดสำหรับเราไม่ประสบความสำเร็จในการสร้าง AI ที่สอดคล้องกับมูลค่า
เอเรียล: โอเค ตอนนี้คน AI ด้านเทคนิคส่วนใหญ่กำลังพิจารณาปัญหา AI ทางเทคนิคเป็นส่วนใหญ่ วิธีแก้ปัญหาต่างๆ มักจะต้องใช้วิธีการทางเทคนิคสำหรับสิ่งนี้ แต่เมื่อพูดถึงเรื่องต่างๆ เช่น การจัดตำแหน่งคุณค่าและจริยธรรม ส่วนใหญ่ฉันได้ยินคนแนะนำว่าเราไม่สามารถปล่อยให้มันขึ้นอยู่กับนักวิจัย AI ด้านเทคนิคเท่านั้น ดังนั้นฉันจึงหวังว่าคุณจะสามารถพูดคุยเล็กน้อยเกี่ยวกับผู้ที่ควรเป็นส่วนหนึ่งของการสนทนานี้ เหตุใดเราจึงต้องการผู้คนที่เกี่ยวข้องมากขึ้น วิธีที่เราจะทำให้ผู้คนมีส่วนร่วมมากขึ้น อะไรทำนองนั้น
ลูคัส: แน่นอน บางทีถ้าฉันแยกปัญหาออกเป็นสิ่งที่ฉันมองว่าเป็นสามส่วนที่แตกต่างกัน แล้วการพูดถึงมันจะสมเหตุสมผลขึ้นนิดหน่อย ดังนั้นเราจึงสามารถแบ่งปัญหาการจัดตำแหน่งค่าออกเป็นสามส่วนแยกกัน ประเด็นแรกจะเกี่ยวกับปัญหาทางเทคนิค ปัญหาที่เกิดขึ้นจริงเกี่ยวกับการสร้างปัญญาประดิษฐ์ ประเด็นของจริยธรรมดังนั้นจุดจบที่เรามุ่งมั่น ชุดของอนาคตที่เป็นไปได้ที่เราจะมีความสุขในการใช้ชีวิต และจากนั้นก็มีธรรมาภิบาล การประสานงาน และปัญหาระหว่างประเทศ ดังนั้นเราจึงมองว่านี่เป็นปัญหาของหน่วยสืบราชการลับ ปัญหาของการยอมรับในท้ายที่สุดว่าการขับเคลื่อนของข่าวกรองมุ่งไปสู่สิ่งใด และรวมถึงบริบททางการเมืองและสังคมซึ่งทั้งหมดนี้เกิดขึ้น
[NPC5]จนถึงตอนนี้ มีการเน้นที่ปัญหาทางเทคนิคอย่างแน่นอน ดังนั้นจึงมีการเพิ่มขึ้นอย่างมากในด้านความปลอดภัยของ AI และในความพยายามที่จะสร้าง AI ที่เป็นประโยชน์ ความพยายามในการสร้าง AGI ที่ปลอดภัยและกลไกในการหลีกเลี่ยงการแฮ็กรางวัลและสิ่งอื่น ๆ ที่เกิดขึ้นเมื่อระบบพยายามปรับฟังก์ชั่นยูทิลิตี้ให้เหมาะสม ปัญหาคอนกรีต AI ความปลอดภัยกระดาษมีความสำคัญมากและเป็นการแสดงให้เห็นปัญหาทางเทคนิคเหล่านี้ แต่ถึงแม้ระหว่างการวิจัยทางเทคนิคด้านความปลอดภัยของ AI และจริยธรรม ก็ยังมีข้อโต้แย้งเกี่ยวกับบางสิ่งเช่นจริยธรรมของเครื่องจักร แล้วจรรยาบรรณเครื่องจักรมีความสำคัญอย่างไร? จรรยาบรรณของเครื่องจักรเหมาะสมกับการวิจัยทางเทคนิคด้านความปลอดภัยของ AI ที่ใด เราควรใส่เวลาและพลังงานลงในการวิจัยทางเทคนิค AI บางประเภทมากน้อยเพียงใด เทียบกับเวลาและความพยายามที่เราควรใส่ลงในประเด็นในการกำกับดูแลและการประสานงานและแก้ไขปัญหาการแข่งขันอาวุธ AI เราต้องแก้ไขจริยธรรมมากแค่ไหน?