Get in my Think Art.

นโยบาย AI – กลุ่มการศึกษาปัญญาประดิษฐ์ระหว่างประเทศ

นโยบาย AI – กลุ่มการศึกษาปัญญาประดิษฐ์ระหว่างประเทศ

นโยบาย AI – กลุ่มการศึกษาปัญญาประดิษฐ์ระหว่างประเทศ

jumbo jili

นายกรัฐมนตรีจัสติน ทรูโดของแคนาดาและประธานาธิบดีฝรั่งเศส เอ็มมานูเอล มาครง ประกาศ จัดตั้งกลุ่มการศึกษาระหว่างประเทศสำหรับ AI เมื่อวันที่ 7 มิถุนายน 2561 ก่อนการประชุมสุดยอด G7 ในควิเบก กลุ่มผู้เชี่ยวชาญอิสระจะรวบรวมผู้เชี่ยวชาญของรัฐบาล นักวิทยาศาสตร์ และตัวแทนจากภาคอุตสาหกรรมและภาคประชาสังคม

สล็อต

กลุ่มจะวิเคราะห์การพัฒนาและผลกระทบของ AI และส่งเสริมความร่วมมือระดับโลก ในฐานะที่ ใช้ร่วมกัน โดยรัฐบาลแคนาดา“แคนาดาและฝรั่งเศสปรารถนาที่จะส่งเสริมวิสัยทัศน์ของมนุษย์เป็นศูนย์กลางปัญญาประดิษฐ์เหตุผลในสิทธิมนุษยชนรวมความหลากหลายนวัตกรรมและการเติบโตทางเศรษฐกิจ.”
Trudeau และ Macron กำลังสร้างคณะทำงานเพื่อให้คำแนะนำเกี่ยวกับวิธีการจัดตั้งแผงข้อมูล คณะทำงานจะส่งรายงานและแบ่งปันผลลัพธ์ภายใน G7
การวิจัยปัญญาประดิษฐ์ (AI) ได้จัดการกับปัญหาและวิธีการที่หลากหลายตั้งแต่เริ่มก่อตั้ง อย่างไรก็ตาม ในช่วงยี่สิบปีที่ผ่านมา ได้มุ่งเน้นไปที่ปัญหาที่เกี่ยวข้องกับการสร้างตัวแทนอัจฉริยะ ระบบที่สามารถรับรู้และดำเนินการในสภาพแวดล้อมบางอย่างได้ ในบริบทนี้ “ความฉลาด” หมายถึงเงื่อนไขทางสถิติและเศรษฐศาสตร์ของความมีเหตุผล – เรียกขาน ความสามารถในการตัดสินใจที่ดี วางแผนหรือแทรกแซง การใช้ความน่าจะเป็นและการนำเสนอทฤษฎีการตัดสินใจและวิธีการเรียนรู้ทางสถิติได้นำไปสู่การแลกเปลี่ยนที่เกิดผลระหว่างสาขาต่างๆ เช่น AI, การเรียนรู้ของเครื่อง, สถิติ, ทฤษฎีการควบคุม, ประสาทวิทยาศาสตร์ และอื่นๆ
เมื่อประสิทธิภาพในสาขาดังกล่าวก้าวข้ามเส้นจากห้องปฏิบัติการไปสู่เทคโนโลยีที่คุ้มค่าทางเศรษฐกิจ ก็มีแนวโน้มสูงขึ้นไปอีก: แม้แต่การปรับปรุงประสิทธิภาพเพียงเล็กน้อยก็ยังคุ้มค่าเงินจำนวนมาก ซึ่งจะนำไปสู่การลงทุนครั้งใหม่ในด้านการวิจัย ขณะนี้มีความเห็นเป็นเอกฉันท์ว่าการวิจัย AI มีการพัฒนาอย่างต่อเนื่องและผลกระทบต่อสังคมมีแนวโน้มที่จะเติบโตต่อไป ประโยชน์ที่เป็นไปได้นั้นมหาศาล เนื่องจากทุกสิ่งที่อารยธรรมมนุษย์มีให้เป็นผลผลิตจากสติปัญญา เราไม่สามารถคาดการณ์ได้ว่าเราจะทำอะไรได้บ้างหากปัญญานี้ได้รับการปรับปรุงโดย AI แต่การสิ้นสุดของโรคและความยากจนนั้นเป็นไปไม่ได้ เนื่องจากศักยภาพของ AI สูง การวิจัยจึงเป็นสิ่งสำคัญ
ความก้าวหน้าของปัญญาประดิษฐ์ทำให้จำเป็นต้องมุ่งเน้นการวิจัยไม่เพียงแต่เกี่ยวกับประสิทธิภาพของ AI แต่ยังต้องเพิ่มผลประโยชน์ทางสังคมด้วย การพิจารณาเหล่านี้เป็นแรงบันดาลใจให้คณะกรรมการประธานาธิบดี AAAI 2008-09 เกี่ยวกับอนาคต AI ระยะยาวและโครงการอื่นๆ เกี่ยวกับผลกระทบของ AI พวกเขายังหมายถึงการขยายสาขาที่สำคัญของ AI ซึ่งจนถึงขณะนี้เน้นไปที่เทคโนโลยีที่เป็นกลางโดยเจตนาเป็นหลัก เราขอเสนอการขยายการวิจัยเพื่อให้แน่ใจว่าระบบ AI ที่ทรงพลังยิ่งขึ้นมีความเสถียรและมีเมตตา: ระบบ AI ของเราต้องทำในสิ่งที่เราต้องการ เอกสารลำดับความสำคัญการวิจัยนี้(ลิงก์เป็นภาษาอังกฤษ) แสดงตัวอย่างแนวทางการวิจัยดังกล่าวมากมายที่สามารถช่วยปรับปรุงประโยชน์ทางสังคมของ AI ได้ การวิจัยนี้จำเป็นต้องมีสหวิทยาการเพราะเกี่ยวข้องกับทั้งสังคมและ AI สเปกตรัมมีตั้งแต่เศรษฐศาสตร์ กฎหมาย และปรัชญา ไปจนถึงความปลอดภัยของคอมพิวเตอร์ วิธีการที่เป็นทางการ และแน่นอนว่าในด้านต่างๆ ของ AI
โดยสรุป เราเชื่อว่าการวิจัยเพื่อทำให้ระบบ AI มีเสถียรภาพและมีเมตตาเป็นสิ่งที่จำเป็นอย่างเร่งด่วน มีแนวทางการวิจัยเฉพาะที่สามารถนำมาใช้ได้อยู่แล้ว
จนถึงตอนนี้ จดหมายเปิดผนึกนี้มีผู้ลงนามแล้วกว่า 8,000 คน หากคุณต้องการแสดงการสนับสนุนสำหรับหลักการเหล่านี้ โปรด ไปที่ลิงก์นี้ และกรอกชื่อและที่อยู่อีเมลของคุณในแบบฟอร์มที่ด้านล่างของหน้า
ปัญญาประดิษฐ์ทั่วไป (AGI) อาจพัฒนาได้ภายในศตวรรษนี้ แม้ว่าเหตุการณ์นี้อาจก่อให้เกิดประโยชน์มากมาย เช่น การเร่งความก้าวหน้าทางวิทยาศาสตร์และเศรษฐกิจอย่างรวดเร็ว แต่ก็ก่อให้เกิดความเสี่ยงที่สำคัญเช่นกัน การสำรวจเมื่อเร็ว ๆ นี้แสดงให้เห็นว่านักวิจัย AI ค่ามัธยฐานเชื่อว่ามีโอกาสอย่างน้อยหนึ่งในยี่สิบของผลลัพธ์เชิงลบที่ร้ายแรงพอ ๆ กับการสูญพันธุ์ของมนุษย์ การสร้างความมั่นใจว่า AGI ได้รับการพัฒนาอย่างปลอดภัยและเป็นประโยชน์ และการหลีกเลี่ยงความเสี่ยงที่เลวร้ายที่สุด จะต้องมีสถาบันที่ยังไม่มีอยู่จริง อย่างไรก็ตาม ความจำเป็นในการออกแบบและทำความเข้าใจสถาบันเหล่านี้ได้สร้างแรงบันดาลใจให้กับงานวิชาการเพียงเล็กน้อย โปรแกรมของเรามีจุดมุ่งหมายเพื่อตอบคำถามหลายข้อที่เป็นรากฐานของปัญหาในการควบคุมระบบ AI ขั้นสูง เราจะดำเนินการสี่สายงานเพื่อมุ่งสู่เป้าหมายนี้ เกี่ยวกับสถานะของการวิจัย AI ของจีนและแนวคิดเชิงนโยบาย ความสัมพันธ์ที่เปลี่ยนแปลงไประหว่างรัฐบาลและบริษัทวิจัย AI โอกาสในการตรวจสอบข้อตกลงเกี่ยวกับการใช้และการพัฒนา AI และคุณสมบัติที่เกี่ยวข้องเชิงกลยุทธ์ของระบบ AI ที่อาจชี้นำแนวทางของรัฐในการกำกับดูแล AI ผลลัพธ์ของโครงการจะรวมถึงการตีพิมพ์เชิงวิชาการ เวิร์กช็อป และการปรึกษาหารือกับผู้นำด้านการพัฒนาและนโยบาย AI
สเตฟาโน เออร์มอน
บทคัดย่อทางเทคนิค:ข้อกำหนดของรางวัล ความท้าทายหลักในการจัดตำแหน่งคุณค่า เป็นเรื่องยากโดยเฉพาะอย่างยิ่งในสภาพแวดล้อมที่มีตัวแทนหลายคน เนื่องจากนักออกแบบต้องสร้างสมดุลระหว่างผลประโยชน์ส่วนบุคคลและประโยชน์ทางสังคมโดยรวม แทนที่จะออกแบบรางวัลด้วยมือ เราพิจารณาการเรียนรู้การเสริมแรงผกผัน (IRL) ซึ่งเป็นเทคนิคการเรียนรู้เลียนแบบที่เจ้าหน้าที่เรียนรู้โดยตรงจากการสาธิตของมนุษย์ เทคนิคเหล่านี้ได้รับการพัฒนามาอย่างดีสำหรับกรณีตัวแทนเดียว และแม้ว่าจะมีข้อจำกัด แต่ก็มักถูกมองว่าเป็นองค์ประกอบสำคัญในการแก้ไขปัญหาการจัดตำแหน่งค่า ทว่าการตั้งค่าหลายเอเจนต์นั้นยังไม่ได้สำรวจค่อนข้าง
เราเสนอให้เติมช่องว่างนี้และพัฒนาการเรียนรู้เลียนแบบและอัลกอริธึมการเรียนรู้การเสริมแรงผกผันที่ออกแบบมาโดยเฉพาะสำหรับการตั้งค่าหลายเอเจนต์ วัตถุประสงค์ของเราคือ: 1) พัฒนาเทคนิคเพื่อเลียนแบบพฤติกรรมและปฏิสัมพันธ์ของมนุษย์ที่สังเกตได้ 2) กู้คืนรางวัลอย่างชัดเจนซึ่งสามารถอธิบายพฤติกรรมเชิงกลยุทธ์ที่ซับซ้อนในระบบหลายตัวแทนได้ ทำให้ตัวแทนสามารถให้เหตุผลเกี่ยวกับพฤติกรรมของมนุษย์และอยู่ร่วมกันได้อย่างปลอดภัย 3) พัฒนา เทคนิคที่ตีความได้ และ 4) จัดการกับตัวแทนที่ไม่ลงตัวเพื่อความปลอดภัยสูงสุด วิธีการเหล่านี้จะปรับปรุงความสามารถของเราอย่างมากในการทำความเข้าใจและให้เหตุผลเกี่ยวกับการโต้ตอบระหว่างตัวแทนหลายรายในสภาพแวดล้อมที่ซับซ้อน

สล็อตออนไลน์

โอเวน อีแวนส์
บทคัดย่อทางเทคนิค:เป้าหมายของเราคือทำความเข้าใจว่าแมชชีนเลิร์นนิงสามารถใช้กับ AGI ในลักษณะที่ ‘ปรับขนาดได้อย่างปลอดภัย’ ได้อย่างไร กล่าวคือ มีความสอดคล้องกับความสนใจของมนุษย์มากขึ้นเมื่อส่วนประกอบ ML พัฒนาขึ้น วิธีการที่มีอยู่สำหรับ AGI (รวมถึง RL และ IRL) นั้นไม่สามารถปรับขนาดได้อย่างปลอดภัย: เอเจนต์อาจกลายเป็นที่ไม่สอดคล้องกันเมื่อทรัพยากรทางปัญญาของมันเกินกว่าที่ผู้ดูแลที่เป็นมนุษย์ การกลั่นและการขยายซ้ำของ Christiano (IDA) เป็นทางเลือกที่น่าสนใจ ใน IDA มนุษย์และตัวแทนได้รับการ ‘ขยาย’ ให้เป็นผู้ควบคุมที่มีไหวพริบ (แต่ช้า) โดยอนุญาตให้มนุษย์ทำการเรียกไปยังการทำซ้ำก่อนหน้านี้ของตัวแทน โดยการก่อสร้าง ผู้ดูแลคนนี้ตั้งใจที่จะอยู่นำหน้าตัวแทนที่จะถูกดูแลอยู่เสมอ
IDA สามารถผลิตสารที่มีการจัดตำแหน่งที่มีความสามารถสูงโดยให้ส่วนประกอบ ML ขั้นสูงเพียงพอได้หรือไม่ แม้ว่าเราจะไม่สามารถหาหลักฐานเชิงประจักษ์ได้โดยตรงในทุกวันนี้ แต่เราสามารถศึกษามันทางอ้อมได้โดยใช้การขยายเสียงกับมนุษย์ในฐานะตัวแทนของ AI สิ่งนี้สอดคล้องกับการศึกษา ‘ความรู้ความเข้าใจแบบแยกส่วน’ คำถามที่ว่าการให้เหตุผลที่ซับซ้อนสามารถแบ่งออกเป็นงานย่อยเล็กๆ น้อยๆ และส่วนใหญ่เป็นงานอิสระได้หรือไม่ เราจะสำรวจแผนงานสำหรับการรับรู้แบบแยกส่วนและใช้ประโยชน์จากระบบอัตโนมัติผ่าน ML เพื่อจัดการกับงานที่มีขนาดใหญ่กว่า
อัน ฮัน
บทคัดย่อทางเทคนิค: การแข่งขัน AI เพื่อความได้เปรียบทางเทคโนโลยีต่อระบบ AI ที่ทรงพลังอาจนำไปสู่ผลกระทบด้านลบที่ร้ายแรง โดยเฉพาะอย่างยิ่งเมื่อมีการประเมินขั้นตอนทางจริยธรรมและความปลอดภัยต่ำเกินไปหรือถูกมองข้ามไป เพื่อให้ทุกคนได้รับประโยชน์จาก AI ที่ปลอดภัย ถูกหลักจริยธรรม และเชื่อถือได้ สิ่งสำคัญคือต้องกำหนดกลยุทธ์จูงใจที่เหมาะสมเพื่อให้มั่นใจว่าจะเป็นประโยชน์ร่วมกัน มีพฤติกรรมเชิงบรรทัดฐาน และปฏิบัติตามความปลอดภัยจากทุกฝ่ายที่เกี่ยวข้อง การใช้วิธีการจากทฤษฎีเกมวิวัฒนาการ โครงการนี้จะพัฒนาแบบจำลองการคำนวณ (ทั้งการวิเคราะห์และการจำลอง) ที่รวบรวมปัจจัยสำคัญของการแข่งขัน AI ซึ่งเผยให้เห็นพฤติกรรมเชิงกลยุทธ์ที่น่าจะเกิดขึ้นในสภาวะที่แตกต่างกันและสถานการณ์สมมติของการแข่งขัน นอกจากนี้ การใช้วิธีการจากสิ่งจูงใจและการสร้างแบบจำลองข้อตกลง เราจะวิเคราะห์อย่างเป็นระบบว่าสิ่งจูงใจประเภทต่างๆ เป็นอย่างไร (กล่าวคือ เชิงบวกกับเชิงลบ เพื่อนกับสถาบัน และการผสมผสานกัน) มีอิทธิพลต่อพฤติกรรมการปฏิบัติตามข้อกำหนดด้านความปลอดภัยเมื่อเวลาผ่านไป และวิธีที่พฤติกรรมดังกล่าวควรได้รับการกำหนดค่าเพื่อให้แน่ใจว่าผลลัพธ์ระดับโลกที่ต้องการ โดยไม่มีข้อจำกัดที่ไม่เหมาะสมซึ่งจะทำให้การพัฒนาช้าลง โปรเจ็กต์นี้จะเป็นพื้นฐานสำหรับแรงจูงใจที่จะกระตุ้นผลลัพธ์ดังกล่าว และวิธีที่พวกเขาต้องใช้และปรับใช้ภายในขอบเขตสิ่งจูงใจที่เหมาะสมกับประเภทของผู้เล่น เพื่อให้บรรลุการปฏิบัติตามข้อตกลงด้านความปลอดภัยของสหกรณ์ในระดับสูงและหลีกเลี่ยงภัยพิบัติจาก AI .

jumboslot

โฆเซ่ เอร์นานเดซ-โอราลโล
บทคัดย่อทางเทคนิค:มีกระบวนทัศน์มากมาย และจะถูกสร้างขึ้นเพื่อการพัฒนาและทำความเข้าใจ AI ภายใต้กระบวนทัศน์เหล่านี้ ประโยชน์และความเสี่ยงที่สำคัญนั้นแตกต่างกันมาก มิติหนึ่งที่แผ่ซ่านไปทั่วกระบวนทัศน์เหล่านี้คือแนวคิดเรื่องความทั่วถึง ซึ่งมีบทบาทสำคัญ และเป็นตัวกลางใน AGI ซึ่งเป็นปัญญาประดิษฐ์ทั่วไป โครงงานนี้สำรวจประเด็นด้านความปลอดภัยของกระบวนทัศน์ AGI ในปัจจุบันและอนาคตจากมุมมองของการวัดผลทั่วๆ ไป ซึ่งเป็นมิติที่เสริมประสิทธิภาพการทำงาน เราตรวจสอบคำถามการวิจัยต่อไปนี้:

  1. เราควรกำหนดลักษณะทั่วไปในแง่ของงาน เป้าหมาย หรือการครอบงำหรือไม่? ลักษณะทั่วไปเกี่ยวข้องกับความสามารถ ทรัพยากรการคำนวณ และความเสี่ยงในท้ายที่สุดอย่างไร
  2. อะไรคือข้อแลกเปลี่ยนที่ปลอดภัยระหว่างระบบทั่วไปที่มีความสามารถจำกัดหรือระบบทั่วไปน้อยกว่าที่มีความสามารถสูงกว่า? สิ่งนี้เกี่ยวข้องกับประสิทธิภาพและความเสี่ยงของระบบอัตโนมัติอย่างไร?
  3. เราสามารถแทนที่แนวคิดเสาหินของการระเบิดประสิทธิภาพด้วยการเติบโตในวงกว้างได้หรือไม่ สิ่งนี้จะช่วยพัฒนาเส้นทางที่ปลอดภัยสำหรับระบบ AGI ที่ทรงพลังยิ่งขึ้นได้อย่างไร
    คำถามเหล่านี้ได้รับการวิเคราะห์สำหรับกระบวนทัศน์ เช่น การเรียนรู้แบบเสริมแรง การเรียนรู้แบบเสริมแรงผกผัน การตั้งค่าที่เป็นปฏิปักษ์ (การเรียนรู้ทัวริง) ออราเคิล การรับรู้ในฐานะบริการ การเรียนรู้โดยการสาธิต การควบคุมหรือการติดตาม สถานการณ์การสอน หลักสูตรและการถ่ายโอนการเรียนรู้ การเหนี่ยวนำสัญชาติญาณ สถาปัตยกรรมทางปัญญา , AI ที่ได้รับแรงบันดาลใจจากสมอง และอื่นๆ
    มาร์คัส ฮัทเทอร์
    บทคัดย่อทางเทคนิค: กรอบการทำงานของตัวแทน หลักการใช้ประโยชน์ที่คาดหวัง ทฤษฎีการตัดสินใจตามลำดับ และพื้นฐานทางทฤษฎีข้อมูลของการให้เหตุผลเชิงอุปนัยและการเรียนรู้ด้วยเครื่อง ได้นำคำสั่งที่สำคัญมาสู่สาขาปัญญาประดิษฐ์ (AI) ที่กระจัดกระจายอยู่ซึ่งต่างกันก่อนหน้านี้ จากสิ่งนี้ ในทศวรรษที่ผ่านมา ฉันได้พัฒนาทฤษฎีของ Universal AI [Hut05] เป็นวิธีการ ‘บนลงล่าง’ ครั้งแรกและในปัจจุบันที่เข้มงวดทางคณิตศาสตร์ในการสร้างระบบปัญญาประดิษฐ์ทั่วไป โปรเจ็กต์นี้จะขับเคลื่อนทฤษฎีของ AI สากลเพื่อจัดการกับสิ่งที่อาจเป็นความเสี่ยงที่สำคัญที่สุดของศตวรรษที่ 21: การแก้ปัญหาการควบคุม ซึ่งเป็นปัญหาของตัวแทนหลักที่เกิดขึ้นกับการสร้างตัวแทนอัจฉริยะที่ฉลาดกว่า [Bos14] เป้าหมายคือการขยายทฤษฎีที่มีอยู่เพื่อให้สามารถสอบสวนปัญหาการควบคุมอย่างเป็นทางการสำหรับตัวแทนที่ชาญฉลาดโดยทั่วไป เราเน้นที่คุณสมบัติที่สำคัญที่สุดที่ทฤษฎีของ Universal AI ขาด นั่นคือทฤษฎีของตัวแทนที่ฝังอยู่ในโลกแห่งความจริง [EFDH16]: มันไม่ได้จำลองตัวเองได้อย่างน่าเชื่อถือ เป็นข้อจำกัดของตัวแทนเพียงคนเดียว ไม่สำรวจอย่างปลอดภัย และยังไม่เข้าใจดีถึงวิธีการกำหนดเป้าหมายที่สอดคล้องกับค่านิยมของมนุษย์ [EH18a]
    เจมส์ มิลเลอร์
    บทคัดย่อทางเทคนิค: นักเศรษฐศาสตร์ที่ทำงานหนักมายาวนานเพื่อสร้างเครื่องมือทางคณิตศาสตร์ที่อธิบายถึงพฤติกรรมของผู้คนที่มีเหตุผลมากเกินไป อาจคิดค้นวิธีการที่ยอดเยี่ยมในการสร้างแบบจำลองคอมพิวเตอร์อัจฉริยะในอนาคต คู่มือนี้อธิบายการใช้ สมมติฐาน และข้อจำกัดของฟังก์ชันอรรถประโยชน์โดยหวังว่าจะเป็นแหล่งข้อมูลอันมีค่าสำหรับนักทฤษฎีปัญญาประดิษฐ์ทั่วไป (AGI) คู่มือนี้จะวิจารณ์วรรณกรรมของ AGI เกี่ยวกับการบรรจบกันของเครื่องมือ ซึ่งตั้งทฤษฎีว่าสำหรับฟังก์ชันอรรถประโยชน์หลายประเภท AGI จะมีเป้าหมายระดับกลางที่คล้ายคลึงกัน คู่มือนี้พิจารณาวิทยานิพนธ์แบบตั้งฉาก ซึ่งถือได้ว่าการเพิ่มหน่วยสืบราชการลับของ AGI ไม่ได้ทำให้ชุดฟังก์ชันอรรถประโยชน์ที่อาจมีลดลง คู่มือนี้สำรวจฟังก์ชันอรรถประโยชน์ที่อาจเกิดขึ้นใน AGI แต่มักไม่มีในการวิจัยทางเศรษฐกิจ เช่น ความไม่เสถียร เพิ่มอรรถประโยชน์ส่วนเพิ่มเสมอ อัตราคิดลดสูงหรือต่ำมาก อัตราที่ปรับเปลี่ยนได้เอง หรือผู้ที่มีความพึงพอใจที่ละเมิดหนึ่งในสมมติฐานของทฤษฎีบทอรรถประโยชน์ฟอน นอยมันน์-มอร์เกนสเติร์น คู่มือนี้พิจารณาถึงความเป็นไปได้ที่มนุษย์ต่างดาวจะพัฒนาความฉลาดทางคอมพิวเตอร์ที่หลอมรวมเข้ากับฟังก์ชันยูทิลิตี้ที่สอดคล้องกับความขัดแย้งของ Fermi สุดท้าย มีการสำรวจความเป็นไปได้ของ AGI ที่ได้รับค่านิยมจากฟังก์ชันอรรถประโยชน์ของมนุษย์ แม้จะเผชิญกับความท้าทายที่มนุษย์มีความชอบที่แตกต่างกันก็ตาม คู่มือนี้พิจารณาถึงความเป็นไปได้ที่มนุษย์ต่างดาวจะพัฒนาความฉลาดทางคอมพิวเตอร์ที่หลอมรวมเข้ากับฟังก์ชันยูทิลิตี้ที่สอดคล้องกับความขัดแย้งของ Fermi สุดท้าย มีการสำรวจความเป็นไปได้ของ AGI ที่ได้รับค่านิยมจากฟังก์ชันอรรถประโยชน์ของมนุษย์ แม้จะเผชิญกับความท้าทายที่มนุษย์มีความพึงใจต่างกันก็ตาม คู่มือนี้พิจารณาถึงความเป็นไปได้ที่มนุษย์ต่างดาวจะพัฒนาความฉลาดทางคอมพิวเตอร์ที่หลอมรวมเข้ากับฟังก์ชันยูทิลิตี้ที่สอดคล้องกับความขัดแย้งของ Fermi สุดท้าย มีการสำรวจความเป็นไปได้ของ AGI ที่ได้รับค่านิยมจากฟังก์ชันอรรถประโยชน์ของมนุษย์ แม้จะเผชิญกับความท้าทายที่มนุษย์มีความพึงใจต่างกันก็ตาม
    [NPC5]Dorsa Sadigh
    บทคัดย่อทางเทคนิค: การพัฒนาปัญญาประดิษฐ์ (AI) ล่าสุดทำให้เราสามารถสร้างตัวแทน AI และหุ่นยนต์ที่สามารถทำงานได้ที่ซับซ้อน รวมถึงหลายอย่างที่มีปฏิสัมพันธ์กับมนุษย์ ในงานเหล่านี้ หุ่นยนต์ควรสร้างแบบจำลองพฤติกรรมและความชอบของมนุษย์ที่คาดเดาได้และแข็งแกร่ง: หุ่นยนต์ควบคุมที่ทำงานร่วมกับความต้องการของมนุษย์เพื่อทำนายเส้นทางในอนาคตของเธอ หรือมนุษย์ที่นั่งในรถยนต์ที่ขับด้วยตนเองอาจชอบที่จะระมัดระวัง รถควรขับ ในความเป็นจริง มนุษย์มีความชอบที่แตกต่างกัน ซึ่งสามารถจับได้ในรูปแบบของการผสมผสานของฟังก์ชันการให้รางวัล การเรียนรู้ส่วนผสมนี้อาจเป็นสิ่งที่ท้าทายเนื่องจากมีมนุษย์หลายประเภท โดยทั่วไปแล้วยังถือว่ามนุษย์เหล่านี้กำลังปรับฟังก์ชันการให้รางวัลที่เรียนรู้ให้เหมาะสมโดยประมาณ อย่างไรก็ตาม ในสถานการณ์วิกฤตด้านความปลอดภัยหลายๆ สถานการณ์ มนุษย์ติดตามพฤติกรรมที่ไม่สามารถอธิบายได้ง่ายโดยฟังก์ชันการให้รางวัลที่เรียนรู้เนื่องจากขาดข้อมูลหรือการบิดเบือนโครงสร้างของฟังก์ชันการให้รางวัล เป้าหมายของเราในโปรเจ็กต์นี้คือการเรียนรู้ส่วนผสมของฟังก์ชันการให้รางวัลอย่างแข็งขันโดยการเปรียบเทียบจากกลุ่มมนุษย์ที่หลากหลาย และวิเคราะห์เพิ่มเติมเกี่ยวกับความสามารถทั่วไปและความสมบูรณ์ของแบบจำลองดังกล่าวเพื่อการโต้ตอบที่ปลอดภัยและราบรื่นกับตัวแทน AI