โร้ดแมปการแข่งขัน AI เพื่อช่วยรับประกันการพัฒนา AGI . อย่างปลอดภัย
โร้ดแม็ปเป็นเครื่องมือที่มีประโยชน์ที่ช่วยให้เรามองไปในอนาคต คาดการณ์เส้นทางที่เป็นไปได้ที่แตกต่างกัน และระบุด้านที่อาจนำเสนอโอกาสหรือปัญหา จุดมุ่งหมายคือการแสดงภาพสถานการณ์ต่าง ๆ เพื่อเตรียมการ และหลีกเลี่ยงสถานการณ์ที่อาจนำไปสู่อนาคตที่ไม่พึงประสงค์หรือภัยพิบัติที่เลวร้ายยิ่งกว่านั้น นอกจากนี้ยังเป็นแบบฝึกหัดสำหรับการมองเห็นอนาคตที่ต้องการและค้นหาเส้นทางที่เหมาะสมที่สุดในการบรรลุเป้าหมาย
แนะนำโรดแมพ
แผนงานนี้แสดงให้เห็นสามสถานการณ์สมมติในการพัฒนาระบบปัญญาประดิษฐ์ทั่วไป (AGI) จากมุมมองของบริษัทในจินตนาการ (C1) จุดสนใจหลักอยู่ที่การแข่งขัน AI ซึ่งผู้มีส่วนได้ส่วนเสียพยายามเข้าถึง AI ที่ทรงพลังและผลกระทบต่อความปลอดภัย โดยจะระบุการตัดสินใจที่เป็นไปได้ของผู้มีส่วนได้ส่วนเสียใน “สถานการณ์ต่างๆ” ต่างๆ ซึ่งนำไปสู่ผลลัพธ์ที่หลากหลาย รหัสสีของสัญญาณไฟจราจรใช้เพื่อแสดงภาพผลลัพธ์ที่เป็นไปได้ โดยสีเขียวแสดงผลลัพธ์ที่เป็นบวก สีแดง — ค่าลบและสีส้ม — อยู่ระหว่างกลาง
จุดมุ่งหมายของแผนงานนี้ไม่ใช่เพื่อนำเสนอสถานการณ์ที่เป็นไปได้ทั้งหมดแก่ผู้ชม แต่ด้วยตัวอย่างที่ชัดเจนสองสามตัวอย่าง แผนงานมุ่งเน้นไปที่ AGI เป็นหลัก ซึ่งน่าจะมีศักยภาพในการเปลี่ยนแปลงและสามารถส่งผลกระทบต่อสังคมได้อย่างมาก
แผนงานนี้จงใจลองเสี่ยงในสถานการณ์สุดโต่งบางสถานการณ์เพื่อกระตุ้นการอภิปรายเกี่ยวกับบทบาทของ AGI ในการเปลี่ยนกระบวนทัศน์
สถานการณ์ที่ 1 – การแข่งขัน AI: AGI อันตรายได้รับการพัฒนา
สมมติว่ามีศักยภาพของ AGI สูงมาก และการเป็นคนแรกที่สร้าง AGI อาจให้ข้อได้เปรียบที่ไม่เคยมีมาก่อน มีความเป็นไปได้ที่ AGI จะถูกปรับใช้ก่อนที่จะมีการทดสอบอย่างเพียงพอ ในสถานการณ์สมมตินี้ C1 สร้าง AGI ในขณะที่คนอื่นยังคงแข่งขันกันเพื่อพัฒนาเทคโนโลยีให้สมบูรณ์ ซึ่งอาจส่งผลให้ C1 เกิดความกังวล การนำ AGI ไปใช้ก่อนที่จะรับประกันความปลอดภัย และสูญเสียการควบคุม
สิ่งที่เกิดขึ้นต่อไปในสถานการณ์นี้จะขึ้นอยู่กับลักษณะของ AGI ที่สร้างขึ้น หากการพัฒนาตนเองแบบเรียกซ้ำของ AGI ยังคงเร็วเกินไปสำหรับนักพัฒนาที่จะตามทัน อนาคตจะไม่อยู่ในมือของมนุษยชาติ ในกรณีนี้ ขึ้นอยู่กับวัตถุประสงค์และค่านิยมของ AGI มันอาจจะนำไปสู่สถานการณ์วันโลกาวินาศหรือการอยู่ร่วมกันแบบหนึ่ง ซึ่งบางคนสามารถรวมเข้ากับ AGI และเก็บเกี่ยวผลประโยชน์ได้ แต่คนอื่นไม่สามารถทำได้
อย่างไรก็ตาม หากอัตราการพัฒนาตนเองของ AGI ไม่เป็นเลขชี้กำลัง อาจมีเวลาหลบเลี่ยงเพียงพอที่จะควบคุมมันอีกครั้ง AGI อาจเริ่มทำลายโครงสร้างทางเศรษฐกิจและสังคม ผลักดันให้กลุ่มที่ได้รับผลกระทบดำเนินการ ซึ่งอาจนำไปสู่กลุ่มความปลอดภัย AGI บางประเภท ซึ่งรวมถึง C1 ที่สามารถทุ่มเทให้กับการพัฒนาและปรับใช้มาตรการด้านความปลอดภัยเพื่อนำเทคโนโลยีมาอยู่ภายใต้การควบคุม ดังนั้นสมาคมนี้จะถูกสร้างขึ้นจากความจำเป็นและน่าจะอยู่ด้วยกันเพื่อให้แน่ใจว่า AGI จะยังคงเป็นประโยชน์ในอนาคต เมื่อ AGI อยู่ภายใต้การควบคุมในทางทฤษฎีแล้ว อาจนำไปสู่สถานการณ์สมมติที่สามารถสร้าง AGI ที่ทรงพลังและปลอดภัย (อีกครั้ง) ได้อย่างโปร่งใส
AGI ที่ทรงพลังและปลอดภัย
ผลลัพธ์ AGI ที่ทรงพลังและปลอดภัยสามารถเข้าถึงได้จากทั้งสถานการณ์ที่ 1 และ 2 (ดูแผนภาพ) เป็นไปได้ว่าต้นแบบ AGI ที่ทรงพลังบางประเภทจะออกสู่ตลาด และในขณะที่มันจะไม่เป็นภัยคุกคามที่มีอยู่จริง แต่ก็มีแนวโน้มที่จะทำให้เกิดการหยุดชะงักทางสังคมครั้งใหญ่และระบบอัตโนมัติของงานส่วนใหญ่ ซึ่งอาจนำไปสู่ความต้องการรูปแบบของ “รายได้ขั้นพื้นฐานสากล” หรือรูปแบบทางเลือกที่ช่วยให้สามารถแบ่งปันรายได้และผลประโยชน์ของ AGI ระหว่างประชากรได้ ตัวอย่างเช่น ประชาชนทั่วไปสามารถเรียกร้องส่วนแบ่งของพวกเขาใน “เศรษฐกิจ AI” ใหม่ผ่านกลไกที่จัดทำโดยพันธมิตรที่ครอบคลุม (ดูด้านล่าง) โปรดทราบว่าบทบาทของรัฐบาลในฐานะผู้ให้บริการโครงการสนับสนุนสาธารณะอาจลดลงอย่างมาก เว้นแต่รัฐบาลจะสามารถเข้าถึง AGI ควบคู่ไปกับผู้เล่นทางเศรษฐกิจที่มีอำนาจ
สถานการณ์ที่ 2 — การแข่งขัน AI: เน้นความปลอดภัย
ในสถานการณ์สมมตินี้ AGI ถูกมองว่าเป็นเครื่องมือที่ทรงพลัง ซึ่งจะทำให้ผู้สร้างมีความได้เปรียบทางเศรษฐกิจและสังคมที่สำคัญ ไม่ได้พิจารณาเป็นหลักในที่นี้ (ดังที่กล่าวข้างต้น) ว่าเป็นความเสี่ยงที่มีอยู่ แต่เป็นสาเหตุที่เป็นไปได้ของการหยุดชะงักและการเปลี่ยนแปลงของอำนาจมากมาย นักพัฒนาซอฟต์แวร์รักษาการวิจัยส่วนใหญ่ไว้เป็นความลับ และพันธมิตรใดๆ ก็ตามจะไม่เติบโตผ่านการเป็นพันธมิตรด้านการประชาสัมพันธ์แบบผิวเผิน อย่างไรก็ตาม งานจำนวนมากได้ดำเนินการเกี่ยวกับความปลอดภัยของ AI สองเส้นทางที่เป็นไปได้ในสถานการณ์นี้คือแนวทางการทำงานร่วมกันเพื่อการพัฒนาหรือการลักลอบ
แนวทางการทำงานร่วมกัน
จากการที่ผู้มีบทบาทหลายคนเรียกร้องให้มีการทำงานร่วมกันในการพัฒนา AGI มีความเป็นไปได้ที่กลุ่มบริษัทบางประเภทจะพัฒนาขึ้น สิ่งนี้อาจเริ่มต้นจากการฝึกสร้างความไว้วางใจเฉพาะกิจระหว่างผู้เล่นสองสามคนที่ทำงานร่วมกันในประเด็นด้านความปลอดภัย “เดิมพันต่ำ” แต่สามารถพัฒนาเป็นโครงสร้างการพัฒนาร่วม AGI ระดับสากลที่ใหญ่ขึ้นได้ ทุกวันนี้ หนทางสู่สถานการณ์เชิงบวกกำลังปูด้วยความคิดริเริ่มที่โดดเด่น เช่น Partnership on AI [5], IEEE ทำงานเกี่ยวกับการออกแบบที่มีจริยธรรม , Future of Life Institute และอื่นๆ อีกมากมาย ในแผนงานนี้ มีการใช้องค์กรสมมติในระดับโลก ซึ่งสมาชิกร่วมมือกันในอัลกอริธึมและความปลอดภัย (ชื่อ “United AI” ซึ่งคล้ายกับองค์การสหประชาชาติ) ถูกนำมาใช้เป็นตัวอย่าง สิ่งนี้มีแนวโน้มที่จะนำไปสู่สถานะ “AGI ที่ทรงพลังและปลอดภัย” ที่อธิบายไว้ข้างต้น เนื่องจากผู้มีความสามารถระดับโลกที่มีอยู่ทั้งหมดจะได้รับการอุทิศ
วิธีการชิงทรัพย์
สิ่งที่ตรงกันข้ามอาจเกิดขึ้นได้และนักพัฒนาสามารถทำงานแบบซ่อนตัว ยังคงทำงานด้านความปลอดภัยภายใน แต่ความไว้วางใจระหว่างองค์กรจะไม่แข็งแกร่งพอที่จะส่งเสริมความพยายามในการทำงานร่วมกัน มีศักยภาพที่จะไปในเส้นทางที่แตกต่างกันมากมาย แผนงานมุ่งเน้นไปที่สิ่งที่อาจเกิดขึ้นหากมี AGI หลายตัวที่มีเจ้าของต่างกันเกิดขึ้นในเวลาเดียวกันหรือหาก C1 ผูกขาดเทคโนโลยี
AGI หลาย AGI
หลาย AGI อาจปรากฏขึ้นในเวลาเดียวกัน อาจเป็นเพราะ “การรั่วไหล” ในบริษัท บริษัทอื่นๆ ใกล้เข้ามาพร้อมๆ กัน หรือหาก AGI ได้รับการแจกโดยสมัครใจจากผู้สร้าง
เส้นทางนี้ยังมีศักยภาพที่หลากหลายขึ้นอยู่กับเป้าหมายของผู้สร้าง เราสามารถบรรลุ “สงครามของ AGI” ที่นักแสดงต่างต่อสู้กันเพื่อควบคุมอย่างสมบูรณ์ อย่างไรก็ตาม เราอาจพบว่าตัวเองอยู่ในสถานการณ์ที่มีเสถียรภาพ คล้ายกับโลกหลังสงครามโลกครั้งที่ 2 ซึ่งเศรษฐกิจ AGI ที่แยกจากกันซึ่งมีผู้มีบทบาทหลายคนพัฒนาและเริ่มทำงาน ซึ่งอาจนำไปสู่โลกคู่ขนานสองแห่งของผู้ที่เข้าถึง AGI และผู้ที่ไม่สามารถเข้าถึง หรือแม้แต่ผู้ที่ผสานกับ AGI เพื่อสร้างสังคมของ “เทพเจ้า” ของ AGI สิ่งนี้อาจนำไปสู่ความไม่เท่าเทียมกันมากขึ้น หรือเศรษฐกิจที่อุดมสมบูรณ์ ขึ้นอยู่กับแรงจูงใจของ “เทพเจ้า” ของ AGI และว่าพวกเขาเลือกที่จะแบ่งปันผลของ AGI กับมนุษยชาติที่เหลือหรือไม่
การผูกขาดของ AGI
หาก C1 สามารถรักษา AGI ไว้ในกำแพงของตนผ่านวัฒนธรรมของทีมและมาตรการรักษาความปลอดภัย สามารถทำได้หลายวิธี ถ้า C1 มีเจตนาไม่ดี ก็สามารถใช้ AGI เพื่อพิชิตโลกได้ ซึ่งจะคล้ายกับ “สงครามของ AGI” (ด้านบน) อย่างไรก็ตาม การแข่งขันไม่น่าจะมีโอกาสต่อต้านเทคโนโลยีที่ทรงพลังเช่นนี้ นอกจากนี้ยังอาจนำไปสู่อีกสองสถานะสุดท้ายข้างต้น: ถ้า C1 ตัดสินใจที่จะแบ่งปันผลของเทคโนโลยีกับมนุษยชาติ เราอาจเห็นเศรษฐกิจที่อุดมสมบูรณ์ และถ้าไม่เป็นเช่นนั้น สังคมก็จะมีความไม่เท่าเทียมกันอย่างมาก อย่างไรก็ตาม มีความเป็นไปได้อีกประการหนึ่งที่ถูกสำรวจ และนั่นคือถ้า C1 ไม่มีส่วนได้เสียในโลกนี้และยังคงดำเนินการอย่างลับๆ ต่อไปเมื่อ AGI ถูกสร้างขึ้น ด้วยศักยภาพของเทคโนโลยี C1 สามารถออกจากโลกและเริ่มสำรวจจักรวาลโดยไม่มีใครสังเกตเห็น
สถานการณ์ที่ 3 – การเปลี่ยนจาก AI แบบแคบเป็น AGI . อย่างราบรื่น
สถานการณ์นี้เห็นการเปลี่ยนแปลงทีละน้อยจาก AI ที่แคบไปเป็น AGI ระหว่างทางมีการสร้างโครงสร้างพื้นฐานและ powershifts จะช้ากว่าและควบคุมได้มากขึ้น เราเห็นแล้วว่า AI แบบแคบเข้าครอบงำชีวิตประจำวันของเราทั้งในด้านเศรษฐกิจและสังคม โดยงานที่ต้องทำด้วยตนเองกลายเป็นอัตโนมัติมากขึ้น ความก้าวหน้านี้อาจก่อให้เกิดกลุ่มความปลอดภัย AI แบบแคบซึ่งเน้นการใช้งาน AI แบบแคบ โมเดลความปลอดภัย / ข้อบังคับ AI แบบแคบนี้สามารถใช้เป็นพื้นที่สร้างความไว้วางใจสำหรับผู้เล่นที่จะพัฒนา AGI ต่อไป อย่างไรก็ตาม นักแสดงที่ไล่ตาม AGI เพียงอย่างเดียวและเลือกที่จะไม่พัฒนาเทคโนโลยี AI แบบแคบอาจถูกตัดออกจากโครงการนี้
เมื่องานกลายเป็นอัตโนมัติมากขึ้น รัฐบาลจะต้องจัดหาทรัพยากรเพิ่มเติม (ผ่านการเก็บภาษีหรือวิธีการอื่นๆ) เพื่อสนับสนุนผู้คนที่ได้รับผลกระทบ การสนับสนุนที่เพิ่มขึ้นอย่างค่อยเป็นค่อยไปนี้อาจนำไปสู่รายได้ขั้นพื้นฐานสากลหรือรูปแบบที่คล้ายกัน (ตามที่อธิบายไว้ข้างต้น) ในที่สุด AGI ก็จะมาถึงและสถานะสิ้นสุดจะขึ้นอยู่กับแรงจูงใจของผู้สร้างอีกครั้ง
เราเรียนรู้อะไร
แม้ว่าแผนงานนี้จะไม่ใช่โครงร่างที่ครอบคลุมของสถานการณ์ที่เป็นไปได้ทั้งหมด แต่ก็มีประโยชน์ในการแสดงให้เห็นถึงความเป็นไปได้บางอย่างและให้แนวคิดเกี่ยวกับสิ่งที่เราควรจะมุ่งเน้นในตอนนี้
การทำงานร่วมกัน
เมื่อดูแผนงานแล้ว ดูเหมือนว่ากุญแจดอกหนึ่งในการหลีกเลี่ยงสถานการณ์วันโลกาวินาศหรือสงครามของ AGI คือการทำงานร่วมกันระหว่างผู้มีบทบาทสำคัญกับการสร้างกลุ่มความปลอดภัย AI หรือแม้แต่โครงสร้างการพัฒนาร่วม AI ระดับสากลที่มีความแข็งแกร่ง ความสัมพันธ์ระหว่างนักแสดง (“United AI”) ในสถานการณ์แรก เราเห็นการก่อตั้งกลุ่มโดยไม่จำเป็นหลังจากที่ C1 สูญเสียการควบคุมเทคโนโลยี อย่างไรก็ตาม ในอีกสองสถานการณ์เราเห็นตัวอย่างว่ากลุ่มความปลอดภัยสามารถช่วยควบคุมการพัฒนาและหลีกเลี่ยงสถานการณ์ที่ไม่พึงประสงค์ได้อย่างไร สมาคมที่มุ่งสู่ความปลอดภัย แต่ยังรวมถึงสวัสดิภาพของมนุษย์ ยังสามารถช่วยหลีกเลี่ยงความไม่เท่าเทียมกันในอนาคตและส่งเสริมเศรษฐกิจที่อุดมสมบูรณ์ อย่างไรก็ตาม การระบุแรงจูงใจที่เหมาะสมในการร่วมมือในแต่ละช่วงเวลายังคงเป็นความท้าทายที่ใหญ่ที่สุดอย่างหนึ่ง
รายได้ขั้นพื้นฐานสากล เงินปันผลขั้นพื้นฐานสากล หรือที่คล้ายคลึงกัน
อีกรูปแบบหนึ่งที่ดูเหมือนหลีกเลี่ยงไม่ได้ในเศรษฐกิจ AI หรือ AGI คือการเปลี่ยนไปสู่ ”สังคมว่างงาน” ซึ่งเครื่องจักรทำงานส่วนใหญ่ รัฐที่ประชากรส่วนใหญ่ของโลกสูญเสียงานเนื่องจากระบบอัตโนมัติเป็นสิ่งที่ต้องมีการวางแผน ไม่ว่าจะเป็นการเปลี่ยนไปสู่รายได้พื้นฐานสากล เงินปันผลพื้นฐานสากล [10] ที่แจกจ่ายจากกองทุนความมั่งคั่งทางสังคมที่จะลงทุนในตราสารทุนและพันธบัตร หรือรูปแบบที่คล้ายคลึงกันที่จะชดเชยการเปลี่ยนแปลงทางสังคมได้ จะต้องค่อยๆ หลีกเลี่ยงการหยุดชะงักและความโกลาหลขนาดใหญ่ กลุ่มที่กล่าวถึงข้างต้นยังสามารถมุ่งเน้นไปที่การเปลี่ยนผ่านทางสังคมไปสู่ระบบใหม่นี้ ตรวจสอบโพสต์นี้หากคุณต้องการอ่านเพิ่มเติมเกี่ยวกับ AI และอนาคตของการทำงาน
การแก้ปัญหาการแข่งขัน AI
[NPC5]แผนงานแสดงให้เห็นนัยของการแข่งขันทางเทคโนโลยีที่มีต่อ AI และในขณะที่การแข่งขันเป็นที่รู้จักกันเพื่อกระตุ้นนวัตกรรม เราควรตระหนักถึงความเสี่ยงที่เกี่ยวข้องกับการแข่งขันและแสวงหาเส้นทางเพื่อหลีกเลี่ยงพวกเขา (เช่นผ่านการเพิ่มความไว้วางใจและความร่วมมือ) หัวข้อของการแข่งขัน AI ได้ขยายออกไปใน General AI Challenge ซึ่งก่อตั้งโดย GoodAI ซึ่งผู้เข้าร่วมที่มีภูมิหลังต่างกันจากทั่วโลกได้ส่งข้อเสนอการลดความเสี่ยง ข้อเสนอแตกต่างกันไปตามคำจำกัดความของการแข่งขัน เช่นเดียวกับวิธีการบรรเทาข้อผิดพลาด รวมถึงวิธีการควบคุมตนเองสำหรับองค์กร การประสานงานระหว่างประเทศ กรอบการบริหารความเสี่ยง และอื่นๆ อีกมากมาย คุณสามารถค้นหาผลงานที่ได้รับรางวัลทั้ง 6 รายการที่https://www.general-ai-challenge.org/ai-race. เราสนับสนุนให้ผู้อ่านให้คำติชมและสร้างแนวคิดที่พัฒนาขึ้นในความท้าทาย