Get in my Think Art.

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell (Beneficial AGI 2019)

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell (Beneficial AGI 2019)

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell (Beneficial AGI 2019)

jumbo jili

อะไรเป็นแรงจูงใจในการเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วม? เราได้อะไรจากการปรับบริบทความพยายามด้านความปลอดภัยของเราใหม่จากมุมมองของ CIRL ระบบ Pre-AGI มีบทบาทใดในการขยายกระบวนการเชิงบรรทัดฐาน
การเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell เป็นพอดคาสต์ที่แปดในชุด AI Alignment Podcast ซึ่งจัดโดย Lucas Perry และได้รับการบันทึกไว้ในการประชุม Beneficial AGI 2018 ในเปอร์โตริโก สำหรับผู้ที่ยังใหม่ ชุดนี้ครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง ลูคัสจะพูดคุยกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในด้านต่างๆ เช่น แมชชีนเลิร์นนิง ธรรมาภิบาล จริยธรรม ปรัชญา และจิตวิทยาที่เกี่ยวข้องกับโครงการสร้าง AI ที่เป็นประโยชน์ หากฟังดูน่าสนใจสำหรับคุณ เราหวังว่าคุณจะเข้าร่วมการสนทนาโดยติดตามเราหรือสมัครรับพอดแคสต์ของเราบนYoutube , SoundCloudหรือไซต์/แอปพลิเคชันพอดแคสต์ที่คุณต้องการ

สล็อต

Lucas: สวัสดีทุกคน ยินดีต้อนรับกลับสู่ซีรีส์ AI Alignment Podcast ฉันชื่อ Lucas Perry และวันนี้เราจะมาพูดครั้งที่สองกับ Dylan Hadfield-Menell เกี่ยวกับการเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วม ปรัชญาวิทยาศาสตร์เบื้องหลังทฤษฎีความปลอดภัย CIRL ในบริบทของวิธีการจัดตำแหน่งที่แตกต่างกัน และหาก AI ระยะสั้นสามารถทำได้ ใช้ในการขยายกระบวนการเชิงบรรทัดฐาน ครั้งนี้เป็นเพียงการพูดคุยแบบตัวต่อตัวและ Beneficial AGI 2019 ซึ่งเป็นภาคต่อของ FLI ต่อการประชุม Beneficial AI 2017 ที่ Asilomar
ฉันมีบทสนทนาอีกมากมายที่เกิดจากการประชุมนี้จะโพสต์เร็วๆ นี้ และคุณสามารถดูรายละเอียดเพิ่มเติมเกี่ยวกับการประชุมได้ในอีกไม่กี่สัปดาห์ข้างหน้า เช่นเคย หากคุณชอบพอดแคสต์นี้ โปรดสมัครรับข้อมูลหรือติดตามเราบนแพลตฟอร์มการฟังที่คุณต้องการ อย่างที่หลายๆ คนคงทราบดีแลนเป็นปริญญาเอกปีห้า นักศึกษาที่ UC Berkeley ซึ่งได้รับคำแนะนำจาก Anca Dragan, Pieter Abbeel และ Stuart Russell ซึ่งเขามุ่งเน้นไปที่การวิจัย AI Alignment ทางเทคนิค เพื่อไม่ให้เป็นการเสียเวลา ฉันจะให้ดีแลนแก่คุณ
ขอบคุณมากสำหรับการมาบนพอดคาสต์อีกครั้ง Dylan นั่นเป็นเวลาหนึ่งปีหรือบางอย่าง ดีใจที่ได้พบคุณอีกครั้ง
ดีแลน: ขอบคุณ มันเป็นความสุขที่ได้มาอยู่ที่นี่
ลูคัส: เพื่อเริ่มต้น เราสามารถดำเนินการต่อและเริ่มพูดเล็กน้อยเกี่ยวกับงานของคุณเกี่ยวกับการเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วม และการอัปเดตหรือคำอธิบายที่น่าสนใจประเภทใดก็ตามที่คุณมี
ดีแลน: ขอบคุณ สำหรับฉัน การทำงานในสหกรณ์ IRL เป็นกระบวนการที่ค่อนข้างยาว มันเป็นการย้อนเวลากลับไปสู่การเริ่มต้นปีที่สองของฉันในระดับปริญญาเอก เมื่อที่ปรึกษาของฉันกลับมาจากวันหยุดยาวหนึ่งปี และแนะนำว่าเราได้เปลี่ยนทิศทางการวิจัยที่เรากำลังคิดอยู่โดยสิ้นเชิง เกี่ยวกับ.
นั่นคือการคำนึงถึง AI Alignment และความปลอดภัยของ AI และข้อกังวลที่เกี่ยวข้องที่อาจนำมา และความพยายามครั้งแรกของเราในการวิจัยที่ทำจริงๆ ในด้านนั้นคือพยายามทำให้เป็นทางการว่าปัญหาที่เรากำลังดูอยู่คืออะไร ช่องว่างของพารามิเตอร์และพื้นที่ของวิธีแก้ปัญหาที่เราควรพิจารณาในการศึกษาปัญหานั้นคืออะไร
ดังนั้นจึงทำให้เราเขียน Cooperative Inverse Reinforcement Learning ตั้งแต่นั้นมา ฉันก็ได้มีการสนทนากันเป็นจำนวนมาก ซึ่งฉันมีปัญหาอย่างเหลือเชื่อในการพยายามถ่ายทอดสิ่งที่เราพยายามจะทำที่นี่จริงๆ และเอกสารและแนวคิดนั้นแสดงถึงความปลอดภัย AI
การอัปเดตที่สำคัญอย่างหนึ่งสำหรับฉันและการเปลี่ยนแปลงครั้งใหญ่อย่างหนึ่งนับตั้งแต่ที่เราได้พูดไปล่าสุด คือการได้รับการจัดการเล็กน้อยว่าระบบมีประโยชน์อย่างไร ดังนั้น สำหรับฉัน ฉันได้มาถึงมุมมองที่ว่าจริงๆ แล้ว สิ่งที่เราพยายามทำกับ IRL แบบร่วมมือ คือการเสนอคำจำกัดความทางเลือกของความหมายของระบบ AI ที่จะมีประสิทธิภาพหรือมีเหตุผลในบางแง่มุม
มีเรื่องราวหนึ่งที่คุณสามารถบอกได้เกี่ยวกับปัญญาประดิษฐ์ ซึ่งก็คือเราเริ่มต้น และเราสังเกตว่าผู้คนฉลาดและฉลาดในทางใดทางหนึ่ง จากนั้นเราสังเกตว่าเราสามารถให้คอมพิวเตอร์ทำสิ่งที่น่าสนใจได้ และสิ่งนี้ทำให้เกิดคำถามว่าเราจะทำให้คอมพิวเตอร์ฉลาดขึ้นได้หรือไม่? เราไม่รู้ว่ามันหมายถึงอะไร ไม่รู้ว่าจะแก้ไขอย่างไร และเราค้นพบว่าในการพยายามเขียนโปรแกรมโซลูชันที่ดูชาญฉลาดนั้น เรามีความท้าทายมากมาย
สิ่งสำคัญอย่างหนึ่งที่เราทำในฐานะภาคสนามคือมองดูแผนกเศรษฐศาสตร์ข้างๆ ในบางแง่มุม เพื่อดูแบบจำลองที่พวกเขามีเหตุผลในการตัดสินใจ และมองว่าเศรษฐกิจแบบเดียวกันเป็นอุดมคติในการถ่ายภาพ สำหรับ. จากมุมมองดังกล่าว จริงๆ แล้ว หลายๆ ด้านของ AI ได้เปลี่ยนไปเป็นการนำเอาระบบ homoeconomicous ไปปฏิบัติอย่างมีประสิทธิภาพ
ในคำศัพท์ของฉัน นี่เป็นเรื่องเกี่ยวกับระบบที่มีเหตุมีผลเป็นรายบุคคลอย่างมีประสิทธิภาพ ระบบเหล่านี้เป็นระบบที่ปรับให้เหมาะสมสำหรับเป้าหมายของพวกเขาได้ดี และข้อกังวลมากมายที่เรามีเกี่ยวกับความปลอดภัยของ AI ก็คือระบบที่ปรับให้เหมาะสมสำหรับเป้าหมายของตนเองอาจนำไปสู่ผลลัพธ์ที่แย่มากสำหรับพวกเราที่เหลือ ดังนั้นสิ่งที่ IRL ของสหกรณ์พยายามทำคือการทำความเข้าใจว่าระบบหุ่นยนต์ของมนุษย์จะประพฤติตนเป็นตัวแทนที่มีเหตุผลหมายความว่าอย่างไร

สล็อตออนไลน์

ในแง่หนึ่ง เรากำลังเปลี่ยนจากการมีกล่องล้อมรอบระบบ AI หรือส่วนประกอบเทียมของระบบ ไปเป็นการใช้กล่องตัวแทนล้อมรอบตัวบุคคลและระบบเข้าด้วยกัน และเรากำลังพยายามสร้างแบบจำลองที่สำคัญ บางส่วนของปัญหาการจัดตำแหน่งค่าในสูตรของเราที่นี่ และในกรณีนี้ เราใช้ชุดสมมติฐานที่ง่ายที่สุด ซึ่งโดยพื้นฐานแล้ว เรามีชุดการตั้งค่าคงที่ ซึ่งเป็นค่ากำหนดของมนุษย์ที่พวกเขากำลังพยายามปรับให้เหมาะสม นี่คือสวัสดิการมนุษย์อย่างมีประสิทธิภาพ
โลกสามารถสังเกตได้อย่างสมบูรณ์และหุ่นยนต์และบุคคลต่างทำงานเพื่อเพิ่มสวัสดิการของมนุษย์ให้สูงสุด แต่มีข้อมูลที่เป็นคอขวด ความไม่สมมาตรของข้อมูลที่มีอยู่ซึ่งเราคิดว่าเป็นองค์ประกอบพื้นฐานของปัญหาการจัดตำแหน่งค่า และจริงๆ แล้ว IRL ที่ร่วมมือกันคืออะไร มันคือคำจำกัดความว่าระบบมนุษย์กับหุ่นยนต์สามารถมีเหตุมีผลอย่างไร ในบริบทของการกำหนดลักษณะตายตัวในสภาวะโลกที่สังเกตได้อย่างเต็มที่
ลูคัส: มีประเด็นของอภิปรัชญาหรือมากับแบบจำลองและทฤษฎี ดูเหมือนว่าปัญหาพื้นฐานจะได้รับวิธีการและความซับซ้อนของ AI Alignment ที่พยายามมาบรรจบกับโมเดลที่มีประสิทธิภาพมากที่สุดนั้นยากมาก ผู้คนต่างวนไปมาเกี่ยวกับทฤษฎีว่าเราจะทำเช่นนี้ได้อย่างไร แม้แต่ในโลกแห่งกริดหรือสภาพแวดล้อมของเล่น ดังนั้นจึงดูเหมือนยากมากที่จะแยกตัวแปรที่ดีที่สุดหรือตัวแปรใดที่สามารถเรียงลำดับของแบบจำลองและติดตามในลักษณะที่จะช่วยเราได้มากที่สุด
ดีแลน: ดังนั้น ฉันคิดว่านี่ไม่ใช่แบบจำลองที่แม่นยำของโลก และฉันคิดว่ามีการสันนิษฐานที่นี่ ซึ่งหากตรวจสอบไม่ถูกต้องอีกครั้ง จะนำไปสู่ความไม่ตรงกันระหว่างโลกแห่งความจริงกับสิ่งที่ทำงานในทฤษฎี
ลูคัส: เช่นเดียวกับมนุษย์ที่มีความชอบคงที่
ดีแลน: ตัวอย่างเช่น ใช่ ฉันไม่อ้างว่ารู้ว่าความชอบของมนุษย์คืออะไร และทฤษฎีนี้ไม่ใช่ความพยายามที่จะบอกว่ามันคงที่ เป็นความพยายามที่จะระบุปัญหาที่เกี่ยวข้องกับปัญหาที่เราเผชิญอยู่จริงๆ ซึ่งเราสามารถพัฒนาความก้าวหน้าทางเทคนิคและทฤษฎีต่อไปได้ หวังว่าจะนำไปสู่ข้อมูลเชิงลึกที่อาจส่งต่อไปยังสถานการณ์อื่นๆ
ฉันรู้อย่างแน่นอนว่าสิ่งที่ฉันเรียกว่าทีต้าในเอกสารฉบับนั้นไม่ใช่สิ่งเดียวกับที่ทุกคนพูดถึงเมื่อเราพูดถึงความชอบ ในการพูดคุยกับนักปรัชญา ฉันได้ค้นพบว่า ฉันคิดว่ามันมีความใกล้ชิดกับสิ่งต่าง ๆ เช่น สวัสดิการ อย่างเช่น บริบทของปรัชญาทางศีลธรรม ซึ่งบางทีคุณอาจคิดว่าเป็นวัตถุที่นิ่งกว่าที่คุณอยากจะปรับให้เหมาะสม
ในแง่หนึ่ง ทีต้าเป็นการเข้ารหัสสิ่งที่คุณต้องการให้ระบบทำ โดยทั่วไปคือสิ่งที่เราสมมติว่ามี
ลูคัส: เพราะมันคงที่
ดีแลน: ใช่ และเท่าที่คุณต้องการให้มีการเปลี่ยนแปลงเมื่อเวลาผ่านไป ฉันคิดว่ามีคำถามเชิงทฤษฎีที่น่าสนใจว่ามีความแตกต่างกันอย่างไร และการเปลี่ยนแปลงประเภทใดที่นำไปสู่ ​​และคุณทำได้เสมอหรือไม่ ลดบางสิ่งที่มีค่ากำหนดที่ไม่คงที่เป็นบางสิ่งที่มีค่ากำหนดคงที่จากมุมมองทางคณิตศาสตร์
ลูคัส: ฉันเห็นได้ว่าการเปลี่ยนจากคงที่ไปเป็นการเปลี่ยนแปลงเมื่อเวลาผ่านไป ทำให้มันซับซ้อนอย่างเหลือเชื่อได้อย่างไร
ดีแลน: ใช่ และมันก็ซับซ้อนจริงๆ ในระดับของปรัชญานั้น ไม่ชัดเจนในเชิงปรัชญาว่าควรทำอย่างไร
ลูคัส: ใช่ นั่นคือสิ่งที่ฉันหมายถึง ใช่ คุณไม่รู้ด้วยซ้ำว่าการจัดตำแหน่งในขณะที่ค่ากำลังเปลี่ยนแปลงหมายความว่าอย่างไร เช่น ตัวแทนคิดว่าพวกเขาเพิ่งไปในทิศทางที่ถูกต้องหรือไม่
Dylan: ใช่แล้ว ฉันยังคิดว่าฉันต้องการชี้ให้เห็นว่าสิ่งเหล่านี้มีความไม่แน่นอนเพียงใด เราในฐานะคนเป็นองค์กรที่มีลำดับชั้นมีพฤติกรรมและระบบการสังเกตและระบบการรับรู้ที่แตกต่างกัน และเราเชื่อว่าเรามีความชอบ เรามีชื่อสำหรับสิ่งนั้น แต่มีความรู้สึกที่ท้ายที่สุดแล้วก็คือนิยายประเภทใดประเภทหนึ่ง
เป็นเครื่องมือที่มีประโยชน์ที่เราต้องพูดถึงตัวเองเพื่อพูดคุยเกี่ยวกับผู้อื่นที่เอื้อต่อการมีปฏิสัมพันธ์และความร่วมมือ และเนื่องจากฉันไม่ทราบคำตอบของคำถามเชิงปรัชญาเหล่านี้ ฉันควรทำอย่างไรในฐานะนักวิจัยด้านเทคนิคเพื่อผลักดันปัญหาไปข้างหน้าและเพื่อให้ก้าวหน้าอย่างแท้จริง
ลูคัส: ใช่ และมันก็เป็นแบบนั้นอีกครั้ง เหมือนกับประเด็นทางทฤษฎีและสิ่งที่ผู้คนพยายามทำในตอนนี้ในบริบทของ AI Alignment ดูเหมือนว่าสิ่งที่ดีที่สุดสำหรับคนที่จะทำก็คือกำลังจะเกิดขึ้น แบบจำลองและกรอบงานเชิงทฤษฎีเหล่านี้ ซึ่งมีชุดสมมติฐานขั้นต่ำที่อาจเกือบจะเหมือนในโลกแห่งความเป็นจริง แต่กลับไม่เป็นเช่นนั้น จากนั้นจึงดำเนินการตามทฤษฎีที่นั่นซึ่งหวังว่าจะได้รับการถ่ายทอดในอนาคต ดังที่คุณได้กล่าวกับปัญหาอื่นๆ เช่น ML และการเรียนรู้เชิงลึก ดีขึ้นและเครื่องมืออื่นๆ ก็ดีขึ้นเรื่อยๆ เพื่อให้มีเครื่องมืออื่นๆ ที่ทำให้มันทำงานกับสมมติฐานที่ซับซ้อนมากขึ้นได้
[NPC4]ดีแลน: ใช่ ฉันคิดว่าถูกต้อง วิธีที่ฉันมองสิ่งนี้ในขณะที่เรามี AI คือสิ่งที่กว้างและคลุมเครือ ในระหว่างการวิจัย AI เราได้รับกระบวนการตัดสินใจของ Markov ในฐานะทฤษฎีการประสานงานเกี่ยวกับความหมายสำหรับเราในการออกแบบตัวแทนที่ดีและ IRL แบบร่วมมือคือความพยายามที่จะก้าวหนึ่งจากกระบวนการตัดสินใจของ Markup ไปสู่ ชุดปัญหาที่เราอยากเรียน
Lucas: ใช่ ฉันคิดว่านี่เป็นจุดที่น่าสนใจจริงๆ ที่ฉันไม่เคยคุยกับใครเลย และถ้าคุณมีคำเพิ่มเติมเกี่ยวกับเรื่องนี้อีกสองสามคำ ฉันคิดว่ามันน่าสนใจมาก ดังนั้นในแง่ของการเป็นนักวิทยาศาสตร์คอมพิวเตอร์และเป็นคนที่ทำงานเกี่ยวกับทฤษฎีที่เกิดขึ้นใหม่ในสาขาหนึ่ง ฉันคิดว่ามันมักจะไม่ชัดเจนว่ากระบวนการสร้างทฤษฎีที่แท้จริงอยู่เบื้องหลังการที่ผู้คนเข้าถึง CIRL ได้อย่างไร มีคนมาโต้เถียงได้อย่างไร? มีคนมาขยายเสียงแบบวนซ้ำได้อย่างไร
ดูเหมือนว่าในตอนแรกคุณจะระบุปัญหาที่คุณเห็นว่ามีความสำคัญ จากนั้นมีบางประเภทของความรู้ความเข้าใจเกี่ยวกับญาณวิทยาและเชิงปฏิบัติที่คุณใช้เพื่อพยายามและเริ่มสร้างแบบจำลองที่อาจนำไปสู่ข้อมูลเชิงลึกที่เป็นประโยชน์ คุณมีอะไรที่จะแก้ไขหรือแกะที่นี่หรือไม่?
ดีแลน: ฉันหมายความว่า ฉันคิดว่านั่นเป็นคำอธิบายที่ดีทีเดียวสำหรับกระบวนการที่ค่อนข้างคลุมเครือ
Lucas: แต่อย่างการเป็นนักวิทยาศาสตร์หรืออะไรก็ตาม?
ดีแลน: ครับ ฉันรู้สึกไม่สบายใจที่จะพูดกับนักวิทยาศาสตร์โดยทั่วไปที่นี่ แต่ฉันอาจจะพูดเพิ่มเติมอีกหน่อยเกี่ยวกับกระบวนการเฉพาะของฉัน ซึ่งก็คือฉันพยายามคิดว่าฉันมองปัญหาต่างไปจากคนอื่นโดยพิจารณาจากความแตกต่าง แรงจูงใจและเป้าหมายต่างๆ ที่ฉันมี และฉันพยายามคิดว่าสิ่งนั้นสามารถผลักเราไปในทิศทางต่างๆ ได้อย่างไร มีคนฉลาดจริงๆ อีกหลายคนที่พยายามทำสิ่งต่างๆ มากมาย
คุณต้องรักษาความอ่อนน้อมถ่อมตนทางปัญญาเกี่ยวกับความสามารถในการคิดองค์ประกอบทางประวัติศาสตร์ของสนาม และสำหรับฉัน ฉันคิดว่าโดยเฉพาะอย่างยิ่งสำหรับ AI Safety นั้นกำลังคิดเกี่ยวกับการกำหนดใหม่ว่าเป้าหมายที่เรากำลังมุ่งสู่เป้าหมายคืออะไรในสนาม
ลูคัส: ซึ่งเราไม่รู้
ดีแลน: เราไม่รู้ว่าเป้าหมายเหล่านั้นคืออะไรกันแน่ และฉันคิดว่ามีความรู้สึกว่าภาคสนามไม่ได้ทบทวนเป้าหมายเหล่านั้นอย่างลึกซึ้งอย่างไม่น่าเชื่อ สักนิด ฉันคิดว่ามันยากมากที่จะทำอะไรก็ได้ที่ดูฉลาดในโลกแห่งความเป็นจริง จนเราพยายามมุ่งเน้นไปที่โมเดลกระบวนการตัดสินใจของ Markov ที่มีเหตุผลเป็นรายบุคคล และฉันคิดว่าความกังวลมากมายเกี่ยวกับความปลอดภัยของ AI นั้นเป็นการเรียกร้องให้ AI เป็นพื้นที่ในการถอยออกมาและคิดถึงสิ่งที่เราพยายามจะทำให้สำเร็จในโลกนี้ และเราจะพยายามบรรลุผลลัพธ์ที่เป็นประโยชน์ต่อสังคมได้อย่างไร
ลูคัส: ใช่ และฉันเดาว่าเหมือนปรากฏการณ์ทางสังคมวิทยาภายในนักวิทยาศาสตร์หรือคนที่มุ่งมั่นกับสิ่งเชิงประจักษ์ ในแง่ของการวิเคราะห์อีกครั้งว่าเป้าหมายของ AI Alignment คืออะไร ประเภทของปรัชญา จริยธรรม และสิ่งอื่น ๆ ซึ่งสำหรับคนมีเหตุผลที่เอนเอียงเชิงประจักษ์อาจน่ารังเกียจเพราะคุณไม่สามารถนำกล้องโทรทรรศน์ไปยังจักรวาลและดูเหมือน รายการสิ่งที่คุณควรทำ
และดูเหมือนว่าผู้คนชอบที่จะเลื่อนคำถามเหล่านี้ออกไป ฉันไม่รู้ คุณมีอะไรเพิ่มเติมที่นี่หรือไม่?
ดีแลน: ครับ ฉันคิดว่านักวิทยาศาสตร์คอมพิวเตอร์โดยเฉพาะได้รับเลือกให้เป็นคนที่ชอบที่จะแก้ปัญหาที่พวกเขารู้วิธีแก้ไขและรู้สึกสบายใจและชอบที่จะดึงดูดผู้คนที่มีมนุษยศาสตร์เข้าสู่วิทยาการคอมพิวเตอร์มากขึ้นและโดยเฉพาะอย่างยิ่ง AI ในวงกว้าง AI Safety โดยเฉพาะอย่างยิ่งมีความสำคัญมาก และฉันคิดว่านั่นเป็นการเรียกร้องแบบกว้าง ๆ ที่เราเห็นมาจากสังคมโดยทั่วไป
ลูคัส: ใช่ และฉันคิดว่ามันอาจจะผิดด้วย ที่จะจำลองคำถามด้านมนุษยศาสตร์ให้เหมือนกับคำถามที่ไม่ได้อยู่ในกล่องและไม่สามารถแก้ไขได้ มันเหมือนกับการคิดในแง่บวกเชิงตรรกะที่ว่า ด้านหนึ่งเรามีสิ่งที่ยากลำบากและคุณแค่ต้องมองโลกให้เพียงพอ แล้วคุณจะพบมัน แล้วก็มีเรื่องนุ่มๆ ที่เกี่ยวกับนามธรรมที่ผม ไม่มีคำตอบที่แท้จริง แต่คนที่มีระดับฟูจำเป็นต้องคิดสิ่งที่ดูเหมือนถูกแต่ไม่ถูกต้องจริงๆ
ดีแลน: ฉันคิดว่ามันคงผิดที่จะทำในสิ่งที่ฉันพูดไปในทิศทางนั้น และถ้านั่นคือสิ่งที่ดูเหมือนฉันต้องการจะแก้ไขให้ถูกต้อง ฉันไม่คิดว่าจะมีความรู้สึกที่วิทยาการคอมพิวเตอร์เป็นสถานที่ที่มีคำตอบที่ถูกต้องได้ง่าย และผู้คนในสายมนุษยศาสตร์กำลังโบกมือและโบกมือไปมา
[NPC5]นี่เป็นการโน้มน้าวใจในการทำให้การจัดวางหรือคิดเกี่ยวกับการจัดวางแนวคุณค่า AI มากขึ้น แต่เมื่อฉันคิดเกี่ยวกับการเป็นระบบ AI ในโลก ฉันคิดว่าสิ่งใดที่คุณสามารถทำผิดในข้อกำหนดของคุณ และสิ่งใดที่คุณไม่สามารถผิดพลาดได้ในข้อกำหนดของคุณ
ในแง่นี้ การระบุฟิสิกส์อย่างไม่ถูกต้องนั้นดีกว่ามาก ดีกว่าการระบุวัตถุประสงค์อย่างไม่ถูกต้อง อย่างน้อยก็โดยปริยาย และเหตุผลของสิ่งนั้นคือสิ่งที่เกิดขึ้นกับโลกเมื่อคุณผลักมัน เป็นคำถามที่คุณสามารถตอบได้จากการสังเกตของคุณ ดังนั้น หากคุณเริ่มต้นผิดที่ ตราบใดที่คุณกำลังเรียนรู้และปรับตัว ฉันสามารถคาดหวังได้อย่างสมเหตุสมผลว่าระบบของฉันจะแก้ไขสิ่งนั้นได้ หรืออย่างน้อยเป้าหมายของการวิจัย AI ที่ประสบความสำเร็จก็คือระบบของคุณจะปรับตัวเข้ากับสิ่งนั้นได้อย่างมีประสิทธิภาพ