Get in my Think Art.

นโยบาย AI ทั่วโลก

นโยบาย AI ทั่วโลก

นโยบาย AI ทั่วโลก

jumbo jili

วิธีการที่ประเทศและองค์กรต่างๆ ทั่วโลกเข้าถึงประโยชน์และความเสี่ยงของ AI
ปัญญาประดิษฐ์ (AI) ถือได้ว่าเป็นสัญญาที่ดีทางเศรษฐกิจ สังคม การแพทย์ ความมั่นคง และสิ่งแวดล้อม ระบบ AI ที่สามารถช่วยให้ผู้คนได้เรียนรู้ทักษะใหม่และการฝึกอบรม , บริการประชาธิปไตย , การออกแบบและส่งมอบได้เร็วขึ้นเวลาการผลิตและรวดเร็วซ้ำรอบลดการใช้พลังงานให้เวลาจริงตรวจสอบด้านสิ่งแวดล้อมมลพิษและคุณภาพอากาศเพิ่มศักยภาพในการป้องกันโลกไซเบอร์ , เพิ่มผลผลิตแห่งชาติ , ลด ความไร้ประสิทธิภาพด้านการดูแลสุขภาพสร้างประสบการณ์และปฏิสัมพันธ์ที่สนุกสนานรูปแบบใหม่ให้กับผู้คน และปรับปรุงบริการแปลภาษาแบบเรียลไทม์เพื่อเชื่อมโยงผู้คนทั่วโลก ด้วยเหตุผลทั้งหมดนี้ และนักวิจัยจำนวนมากขึ้นต่างตื่นเต้นกับการใช้ระบบ AI ที่มีศักยภาพเพื่อช่วยจัดการปัญหาที่ยากที่สุดในโลกบางส่วนและปรับปรุงชีวิตนับไม่ถ้วน

สล็อต

แต่เพื่อที่จะตระหนักถึงศักยภาพนี้ ความท้าทายที่เกี่ยวข้องกับการพัฒนา AI จะต้องได้รับการแก้ไข หน้านี้เน้นแหล่งข้อมูลเสริมสามแหล่งเพื่อช่วยผู้มีอำนาจตัดสินใจในการนำทางนโยบาย AI: ภูมิทัศน์ทั่วโลกของกลยุทธ์ AI ระดับชาติและระดับนานาชาติ รายการความท้าทายด้านนโยบาย AI ที่โดดเด่นและคำแนะนำที่สำคัญที่จัดทำขึ้นเพื่อแก้ไขปัญหา และรายการทรัพยากรนโยบาย AI สำหรับผู้ที่หวังจะเรียนรู้เพิ่มเติม
กลยุทธ์ AI ระดับชาติและระดับนานาชาติ: ภูมิทัศน์ระดับโลก
ประเทศต่างๆ ทั่วโลกกำลังกำหนดกลยุทธ์และความคิดริเริ่มของรัฐบาลและระหว่างรัฐบาลเพื่อเป็นแนวทางในการพัฒนาปัญญาประดิษฐ์ (AI) ความร่วมมือ มาตรฐาน และบรรทัดฐานระดับโลกจะเป็นองค์ประกอบที่สำคัญในการพัฒนา AI ที่ปลอดภัยและเป็นประโยชน์ FLI กำลังติดตามและแบ่งปันนโยบาย AI ทั่วโลกเพื่อส่งเสริมความโปร่งใสและการรับรู้ถึงความคิดริเริ่มที่เกิดขึ้นใหม่ AI และปัญญาประดิษฐ์ทั่วไป (AGI) อาจทำให้รัฐบาล สังคม และเศรษฐกิจไม่มั่นคง ในขณะที่เทคโนโลยี AI พัฒนาขึ้นเรื่อยๆ จำเป็นต้องมีการประสานงานและความร่วมมือระหว่างรัฐและมหาอำนาจทั่วโลกมากขึ้น
ความท้าทายและข้อเสนอแนะของนโยบาย AI
14 หัวข้อต่อไปนี้แสดงถึงข้อกังวลเฉพาะสำหรับการพัฒนา AI อย่างปลอดภัยและเป็นประโยชน์ทั้งในระยะสั้นและระยะยาว แต่ละหัวข้อมีการอธิบายโดยย่อและตามด้วยตัวอย่างของหลักการและข้อเสนอแนะของนโยบายที่มีอยู่ตลอดจนลิงก์ไปยังแหล่งข้อมูลเพิ่มเติม การจัดการกับหัวข้อเหล่านี้ควรมีความสำคัญสำหรับผู้กำหนดนโยบายที่ต้องการใช้ประโยชน์จาก AI ในขณะที่เตรียมและบรรเทาภัยคุกคามที่อาจเกิดขึ้น หัวข้อเหล่านี้ไม่ใช่เฉพาะภาคส่วน (เช่น การขนส่งหรือการดูแลสุขภาพ) แต่จะกล่าวถึงข้อกังวลด้านนโยบาย AI ที่ครอบคลุมซึ่งตัดผ่านหลายอุตสาหกรรมและกรณีการใช้งาน
การเปิดใช้งานการวิจัยและพัฒนา AI ที่เป็นประโยชน์
มีจำนวนมากของโอกาสสำหรับการวิจัยที่เป็นประโยชน์ AI ที่นอกเหนือไปจากสิ่งที่มีความจำเป็นเพื่อให้เกิดประสิทธิภาพหลายแห่งซึ่งเป็นไฮไลต์ใน FLI นี้AI ภูมิทัศน์การวิจัยด้านความปลอดภัย นอกจากนี้ยังมีความท้าทายมากมายที่เกี่ยวข้องกับการทำให้โครงการวิจัยและพัฒนาที่เฟื่องฟูสำหรับ AI ที่เป็นประโยชน์ หนึ่งคือการเข้าถึงที่มีคุณภาพสูงและชุดข้อมูลมาตรฐาน ; อีกประการหนึ่งคือสามารถค้นหาและจ้างคนที่มีทักษะที่เหมาะสมเพื่อสร้างผลิตภัณฑ์คุณภาพสูงที่เชื่อถือได้ ข้อจำกัดเรื่องวีซ่าเข้าเมืองและวีซ่าทำงานอาจทำให้รุนแรงขึ้นได้ ปัญหาการขาดแคลนนักวิจัย AI การอัปเดตโปรแกรมการศึกษาเพื่อรวมการฝึกอบรมเกี่ยวกับวิธีสร้างระบบที่ปลอดภัยและเป็นประโยชน์เป็นอีกหนึ่งองค์ประกอบที่สำคัญในการแก้ไขปัญหานี้ นอกจากนี้ สิ่งสำคัญคือต้องเปิดใช้งานเงื่อนไขที่เหมาะสมสำหรับการวิจัยและนักวิจัย ซึ่งรวมถึงการสนับสนุนจากรัฐบาลและสภาพแวดล้อมการทำงานที่ปลอดภัยและครอบคลุม หลักการและข้อเสนอแนะ
ธรรมาภิบาลโลก เงื่อนไขการแข่งขัน และความร่วมมือระหว่างประเทศ
พลวัตของพลังงานมีแนวโน้มที่จะเปลี่ยนแปลงและได้รับการทดสอบด้วยการนำ AI มาใช้มากขึ้นและการพัฒนาระบบ AI ที่แข็งแกร่งขึ้น คำอธิบายของ“AI แข่ง” ระหว่างอำนาจที่ดีได้กลายเป็นเรื่องธรรมดาในขณะที่อาวุธ AI ยังสามารถเสริมพลังนักแสดงใหม่และไม่ใช่รัฐและลดเกณฑ์สำหรับการเข้าสู่สงคราม หลายประเทศได้กำหนดกลยุทธ์ระดับชาติสำหรับ AI ซึ่งรวมถึงวิธีที่จะเป็นหรือคงความสามารถในการแข่งขันกับประเทศอื่น ๆ แต่ก็ยังมีตัวอย่างที่สำคัญของความร่วมมือระหว่างประเทศที่กำลังเกิดขึ้น ธรรมาภิบาลระดับโลกและความร่วมมือระหว่างประเทศจะมีความสำคัญมากขึ้นเรื่อยๆ เพื่อเป็นแนวทางในการพัฒนา AI อย่างปลอดภัยและเป็นประโยชน์ ในขณะเดียวกันก็ลดสภาพการแข่งขันและภัยคุกคามความมั่นคงระดับประเทศและระดับโลก หลักการและข้อเสนอแนะ

สล็อตออนไลน์

ผลกระทบทางเศรษฐกิจ กะแรงงาน ความไม่เท่าเทียมกัน และการว่างงานทางเทคโนโลยี
AI ช่วยให้แรงงานทำงานอัตโนมัติได้มากขึ้น ซึ่งส่งผลกระทบอย่างมากต่อหลายอุตสาหกรรมและอาจทำให้ความเหลื่อมล้ำทางเศรษฐกิจแย่ลงด้วยการสร้างความมั่งคั่งให้กับผู้คนจำนวนน้อยกว่าการปฏิวัติทางเทคโนโลยีครั้งก่อน ซึ่งอาจส่งผลให้สูญเสียงานอย่างมีนัยสำคัญ แต่จะช่วยเพิ่มเวิร์กโฟลว์ของงานจำนวนมาก จำเป็นต้องมีการปรับปรุงโปรแกรมการอบรมขึ้นใหม่รวมถึงมาตรการประกันสังคมที่ได้รับการปรับปรุง ข้อเสนอที่ได้รับความนิยมบางรายการรวมถึงนโยบายเศรษฐกิจแบบแจกจ่ายต่อ เช่นรายได้ขั้นพื้นฐานสากลและ ” ภาษีหุ่นยนต์ ” เพื่อชดเชยความไม่เท่าเทียมกันที่เพิ่มขึ้นและส่งผลให้เกิดความตึงเครียดทางสังคมและการเมือง หลักการและข้อเสนอแนะ
ความรับผิดชอบ ความโปร่งใส และการอธิบายได้
การถือครองระบบ AI หรือความรับผิดชอบของนักออกแบบทำให้เกิดความท้าทายหลายประการ การขาดความโปร่งใสและความสามารถในการอธิบายซึ่งเกี่ยวข้องกับการเรียนรู้ของเครื่องโดยเฉพาะ หมายความว่าอาจเป็นเรื่องยากหรือเป็นไปไม่ได้ที่จะรู้ว่าเหตุใดอัลกอริทึมจึงตัดสินใจอย่างเฉพาะเจาะจง นอกจากนี้ยังมีคำถามว่าใครบ้างที่สามารถเข้าถึงอัลกอริธึมหลักและเข้าใจได้อย่างไร ปัญหาที่ทวีความรุนแรงขึ้นจากการใช้อัลกอริธึมที่เป็นกรรมสิทธิ์ เนื่องจากระบบ AI มอบการตัดสินใจให้กับระบบ จึงไม่มีแนวทางที่ชัดเจนว่าใครจะต้องรับผิดชอบต่อผลกระทบที่ไม่พึงประสงค์ กฎระเบียบให้ความคุ้มครองข้อมูลส่วนบุคคลของผู้บริโภค (GDPR) ของสหภาพยุโรปเป็นความพยายามหนึ่งในการช่วยแก้ไขสถานการณ์นั้น เช่น การให้ “สิทธิ์ในการอธิบาย” เกี่ยวกับวิธีการตัดสินใจอัตโนมัติ
การเฝ้าระวัง ความเป็นส่วนตัว และเสรีภาพของพลเมือง
AI ขยายความเป็นไปเฝ้าระวังเพราะจะช่วยให้ตรวจสอบเวลาจริงและการวิเคราะห์ของสตรีมวิดีโอและข้อมูลอื่น ๆ รวมทั้งการให้บริการเช่นการถ่ายทอดสดการจดจำใบหน้า การใช้เหล่านี้ทำให้เกิดคำถามเกี่ยวกับความเป็นส่วนตัว ความยุติธรรม และเสรีภาพของพลเมือง โดยเฉพาะอย่างยิ่งในบริบทของการรักษาพยาบาลและการบังคับใช้กฎหมาย กองกำลังตำรวจในสหรัฐอเมริกาที่มีอยู่แล้วการทดลองที่มีการใช้ AI สำหรับการปรับปรุงการรักษาทำนาย นอกจากนี้ยังมีแรงกดดันที่เพิ่มขึ้นสำหรับบริษัทและสถาบัน AI ที่จะต้องมีความโปร่งใสมากขึ้นเกี่ยวกับข้อมูลและนโยบายความเป็นส่วนตัว ระเบียบว่าด้วยการคุ้มครองข้อมูลทั่วไปของสหภาพยุโรป (GDPR) เป็นตัวอย่างที่โดดเด่นอย่างหนึ่งของกฎระเบียบความเป็นส่วนตัวของข้อมูลล่าสุดที่มีผลกระทบอย่างลึกซึ้งต่อการพัฒนา AI เนื่องจากข้อกำหนดสำหรับการเก็บรวบรวมและการจัดการข้อมูลตลอดจน “สิทธิ์ในการอธิบาย” พระราชบัญญัติความเป็นส่วนตัวของผู้บริโภคแคลิฟอร์เนีย 2018เป็นอีกหนึ่งการควบคุมความเป็นส่วนตัวที่สำคัญที่จะเกิดขึ้นที่จะมีผลบังคับใช้วันที่ 1 มกราคม 2020 ให้ผู้บริโภคมีสิทธิมากกว่าข้อมูลส่วนบุคคลของพวกเขา
ความเป็นธรรม จริยธรรม และสิทธิมนุษยชน
สาขาจริยธรรม AI กำลังเติบโตอย่างรวดเร็ว โดยมีหัวข้อเกี่ยวกับการเลือกปฏิบัติ ความเป็นธรรม อคติอัลกอริธึม และสิทธิมนุษยชนในประเด็นหลักที่น่าเป็นห่วง ความท้าทายเกี่ยวข้องกับการเข้าถึงและการไม่แบ่งแยก ตลอดจนความไม่เท่าเทียมที่คงอยู่ตลอดไปผ่านการออกแบบทางสังคมวิทยา วิทยาการคอมพิวเตอร์และ AI สามารถเป็นสาขาเดียวกันได้ ขาดความหลากหลายทางเพศ เชื้อชาติ และความหลากหลายอื่นๆ นี้สามารถนำไปสู่การออกแบบเบ้ผลิตภัณฑ์จุดบอดและข้อสมมติฐานที่ผิดพลาด อัลกอริธึมยังสามารถทำซ้ำและขยายอคติทางสังคมและการเลือกปฏิบัติจากการใช้ข้อมูลการฝึกอบรมที่สะท้อนอคติที่มีอยู่ในสังคมหรือที่มีการแสดงแบบเบ้ โปรแกรมเมอร์อาจแนะนำสมมติฐานของตนเองในซอฟต์แวร์โดยไม่ได้ตั้งใจ อคติอัลกอริทึม จะส่งผลทั้งในอันตรายของการจัดสรรและอันตรายของการเป็นตัวแทน จรรยาบรรณของ AI ยังครอบคลุมประเด็นของระบบค่านิยมและเป้าหมายที่เข้ารหัสไว้ในเครื่องจักร จริยธรรมการออกแบบ และผลกระทบเชิงระบบของ AI ต่อโครงสร้างทางสังคม การเมือง และเศรษฐกิจ บางคนยังเรียกร้องให้รวมความยุติธรรมไว้เป็นเป้าหมายของการพัฒนา AI “FAT” ที่ยุติธรรม ตรวจสอบได้ และโปร่งใส AI มีศักยภาพที่จะมีผลกระทบด้านความยุติธรรมทางสังคมอย่างลึกซึ้ง หากมันเปิดทางให้เข้าถึงได้หลากหลาย ผลกระทบต่อระบบที่แตกต่างกัน หรือทำให้เกิดการเลือกปฏิบัติและความไม่เท่าเทียมที่โกรธเคือง

jumboslot

การจัดการทางการเมืองและการโฆษณาชวนเชื่อทางคอมพิวเตอร์
AI ขยายอำนาจของสงครามข้อมูลทำให้เกิดการโฆษณาชวนเชื่อด้วยคอมพิวเตอร์ที่เป็นส่วนตัวและตรงเป้าหมายมากขึ้น เหตุการณ์ล่าสุดได้เน้นย้ำถึงการแพร่กระจายของข่าวปลอมและบอทโซเชียลมีเดียที่ปรับแต่งข้อความเพื่อจุดจบทางการเมือง เช่น ปลุกปั่นให้เกิดความกลัว ความโกรธ และความบาดหมางในสังคม การปรับปรุงในการสร้างวิดีโอปลอมจะทำให้ความท้าทายนี้ยิ่งใหญ่ขึ้นไปอีก หลายคนกังวลว่าหลักการสำคัญของประชาธิปไตยอาจถูกบ่อนทำลายผ่านการเพิ่มจำนวนของ AI ตัวอย่างเช่น โดยการจัดการข้อมูลที่ผู้คนเห็นและความสามารถในการตัดสินใจอย่างมีข้อมูล หลักการและข้อเสนอแนะ
ศักดิ์ศรีความเป็นมนุษย์ เอกราช และผลกระทบทางจิตใจ
AI สามารถเปิดใช้งานและปรับขนาดการกำหนดเป้าหมายขนาดเล็กที่โน้มน้าวใจเป็นพิเศษ และสามารถจัดการกับพฤติกรรมและอารมณ์ได้ ผู้คนอาจสูญเสียความเป็นอิสระหากระบบ AI ถูกนำมาใช้เพื่อกระตุ้นพฤติกรรมของพวกเขา หรือแม้แต่การรับรู้ของโลก ในขณะที่เรายอมให้การควบคุมเครื่องจักรในด้านต่างๆ ของชีวิตเรา ก็มีความกังวลเช่นกันว่าผู้คนจะสูญเสียความหมายบางอย่างในชีวิตของพวกเขา ท้ายที่สุด ยังไม่ชัดเจนว่าผู้คนจะสร้างความสัมพันธ์แบบใดกับระบบ AI เมื่อพวกเขามีความสามารถในการใช้ภาษาธรรมชาติมากขึ้น หรือสิ่งนี้จะส่งผลต่อความสัมพันธ์ของมนุษย์อย่างไร
สุขภาพของมนุษย์ การเสริม และการเชื่อมต่อระหว่างสมองกับคอมพิวเตอร์
มีการใช้ AI เพื่อทำความเข้าใจข้อมูลชีวการแพทย์จำนวนมหาศาลและเพื่อช่วยในการพัฒนา การวินิจฉัย และการรักษายา สิ่งนี้อาจนำไปสู่ความก้าวหน้าเชิงบวกในด้านการแพทย์ที่แม่นยำ แม้ว่าจะทำให้เกิดความท้าทายที่เกี่ยวข้องกับการเข้าถึงการดูแล การควบคุมข้อมูล และความเข้าใจทางวัฒนธรรม/การเมืองของร่างกาย บางคนต้องการใช้ AI เพื่อเพิ่มความสามารถของมนุษย์ผ่าน “ยาอัจฉริยะ”, นาโนบอท และอุปกรณ์ที่สามารถฝังในร่างกายของเรา หรือโดยการเชื่อมโยงสมองของเรากับอินเทอร์เฟซของคอมพิวเตอร์โดยตรง การใช้งานดังกล่าวอาจเป็นเรื่องที่น่าตื่นเต้น แต่ยังเพิ่มความท้าทายด้านความปลอดภัยและจริยธรรม รวมถึงความเป็นไปได้ที่ความไม่เท่าเทียมกันระหว่างผู้คนจะทวีความรุนแรงขึ้นอย่างมาก
ความปลอดภัยของ AI
ความปลอดภัย AI เป็นเขตที่มีหลายแง่มุมที่สามารถอ้างถึงความพยายามที่จะจัดลำดับความสำคัญของการวิจัยที่มีประสิทธิภาพและเป็นประโยชน์ AI ความปลอดภัยของ AI ยังหมายถึงการออกแบบทางเทคนิคของระบบ AI และโดยเฉพาะอย่างยิ่งความพยายามของนักวิจัยบางคนในการออกแบบกลไกความปลอดภัยหลักที่ช่วยใน ” ปัญหาการควบคุม ” ท่ามกลางความกังวลอื่น ๆ เช่นความสามารถในการคาดการณ์ ความทนทานในสภาพแวดล้อมใหม่ และการหลีกเลี่ยงอุบัติเหตุและ ที่ไม่พึงประสงค์ผลข้างเคียง สิ่งสำคัญคือต้องพิจารณาว่าระบบ AI แต่ละระบบมีเวลาเพียงพอในการทดสอบความปลอดภัยและผลที่ตามมาหรือไม่ นอกจากนี้ ความปลอดภัยของ AI ยังคำนึงถึงการพิจารณาที่ซับซ้อนของการจัดตำแหน่งค่าด้วย ระหว่างมนุษย์กับระบบ AI สุดท้าย สภาพทางสังคมและการเมืองมีส่วนทำให้เกิดความปลอดภัยของ AI เนื่องจากสามารถกระตุ้นหรือลดสภาพการแข่งขันที่เป็นอันตรายได้
ความปลอดภัยและความปลอดภัยทางไซเบอร์
AI ส่งผลกระทบต่อภูมิทัศน์ของความมั่นคงระดับประเทศและระดับโลกในหลาย ๆ ด้าน ตั้งแต่การสร้างรูปแบบใหม่ของการทำสงครามข้อมูล การขยายขอบเขตภัยคุกคาม และมีส่วนทำให้เกิดความไม่มั่นคงและอาวุธ นอกจากนี้ AI จะถูกนำไปใช้เป็นเครื่องมือในการโจมตีทางไซเบอร์มากขึ้น สิ่งนี้จะขยายขอบเขตการคุกคามที่มีอยู่และก่อให้เกิดภัยคุกคามใหม่เนื่องจากจะทำให้การโจมตีในวงกว้างมากขึ้น และมีความซับซ้อนและซับซ้อนมากขึ้น ซึ่งอาจเป็นไปได้แม้กระทั่งจากผู้ที่ไม่ซับซ้อน ระบบ AI ยังมีช่องโหว่หลายประเภท ซอฟต์แวร์ AI สามารถถูกแฮ็กและข้อมูลที่ใช้นั้นสามารถปรับเปลี่ยนหรือจัดการได้ แมชชีนเลิร์นนิงของฝ่ายตรงข้าม หมายถึงสถานการณ์ที่ใช้อินพุตข้อมูลเพื่อสร้างความสับสนให้กับระบบ AI และทำให้เกิดข้อผิดพลาด นอกจากนี้ยังใช้เพื่อป้องกันเพื่อทดสอบความทนทานของการออกแบบของตัวเอง เนื่องจาก AI ได้รับการแนะนำในบอทและอินเทอร์เฟซที่หลากหลายมากขึ้นที่เราสร้างการเชื่อมต่อด้วย จึงมีความเสี่ยงด้านความปลอดภัยรูปแบบต่างๆ ที่เกี่ยวข้องกับการใช้ความไว้วางใจและการพึ่งพาของมนุษย์ในทางที่ผิด
อาวุธอิสระ
อาวุธและโดรนถูกดำเนินการโดยอัตโนมัติในระดับต่างๆ คำถามเกี่ยวกับความเป็นอิสระที่ยอมรับได้ในระบบอาวุธนั้นเป็นข้อถกเถียงระหว่างประเทศอย่างต่อเนื่อง โดยองค์กรภาคประชาสังคมหลายแห่งสนับสนุนให้มีการแบนระบบอาวุธทำลายล้างอัตโนมัติระดับนานาชาติและระดับชาติ (LAWS) FLI ได้เปิดตัวคำมั่นสัญญาเพิ่มเติม โดยที่องค์กร 160 แห่ง รวมถึง Google DeepMind และบุคคลอีกกว่า 2,400 ราย รวมถึง Elon Musk และ Stuart Russell ได้ให้คำมั่นที่จะ “ไม่เข้าร่วมหรือสนับสนุนการพัฒนา การผลิต การค้า หรือการใช้อาวุธสังหารอัตโนมัติ” การโต้แย้งต่อกฎหมายรวมถึงข้อเท็จจริงที่ว่ามันอาจละเมิดกฎหมายมนุษยธรรมระหว่างประเทศโดย “การขจัดมนุษย์ออกจากวงจร” ว่าเป็นความผิดทางศีลธรรมที่จะขอให้เครื่องจักรตัดสินว่าใครควรฆ่า และเราจำเป็นต้องหลีกเลี่ยงการแข่งขันด้านอาวุธ AI ซึ่งสามารถลดธรณีประตูของสงคราม หรือเปลี่ยนความเร็ว ขนาด และขอบเขตของผลกระทบของมัน AI เป็นเครื่องมือที่มีค่าในกองทัพสหรัฐฯ อยู่แล้วสำหรับวัตถุประสงค์ในการสอดส่องและข่าวกรอง เช่นProject Mavenแม้ว่าบทบาทของอุตสาหกรรมในงานนี้จะกลายเป็นที่ถกเถียงกัน พนักงานที่ Google ประท้วง บทบาทของ Google ในโครงการนี้ ทำให้บริษัทต้องประกาศว่าจะไม่ทำงานกับอาวุธอิสระ
ภัยพิบัติและความเสี่ยงที่มีอยู่
นักยุทธศาสตร์หลัก นักวิจัย AI และผู้นำธุรกิจเชื่อว่าAI ขั้นสูงเป็นภัยคุกคามที่ยิ่งใหญ่ที่สุดประการหนึ่งต่อการอยู่รอดของมนุษย์ซึ่งรวมถึงความเสี่ยงจากภัยพิบัติและการดำรงอยู่ต่อมนุษยชาติในระยะยาว (ดูส่วนปัญญาประดิษฐ์ทั่วไป (AGI) และ Superintelligence สำหรับข้อมูลเพิ่มเติมเกี่ยวกับ ประเด็นนี้) การรวมกันของ AI กับไซเบอร์ นิวเคลียร์ หุ่นยนต์/โดรน หรืออาวุธชีวภาพ อาจสร้างความเสียหายให้กับผู้คนจำนวนมากได้เช่นกัน ปัจจุบันมีการป้องกันที่มีประสิทธิภาพน้อยมากหากอาวุธกลายเป็น “การรับรู้” ในลักษณะนี้
ปัญญาประดิษฐ์ทั่วไป (AGI) และ Superintelligence
แนวคิดที่ว่าความฉลาดของเครื่องจักรสามารถเทียบเท่ากับสติปัญญาของมนุษย์ในส่วนใหญ่หรือทั้งหมดเรียกว่า AI ที่แข็งแกร่งหรือปัญญาประดิษฐ์ทั่วไป (AGI) แนวคิดของเครื่องจักรดังกล่าวนั้นเหนือกว่าสติปัญญาของมนุษย์อย่างมาก อาจเป็นเพราะการพัฒนาตนเองแบบเรียกซ้ำ เรียกว่า superintelligence หรือการระเบิดของหน่วยสืบราชการลับ ผู้เชี่ยวชาญด้าน AI หลายคนเห็นด้วยว่าปัญญาประดิษฐ์ทั่วไปเป็นไปได้และไม่เห็นด้วยกับไทม์ไลน์และคุณสมบัติเท่านั้น AGI จะเผชิญกับความท้าทายทั้งหมดของ AI ที่แคบ แต่จะก่อให้เกิดความเสี่ยงเพิ่มเติม เช่น การกักกัน
[NPC5]นี้มีวัตถุประสงค์เพื่อเป็นทรัพยากรทางการศึกษา สถาบัน Future of Life เป็นผู้นำการพัฒนาหลักการ AI ของ Asilomar แต่ไม่จำเป็นต้องรับรองหลักการหรือคำแนะนำด้านนโยบายอื่นๆ หน้านี้อยู่ในระหว่างดำเนินการและจะอัปเดตต่อไป หากคุณมีข้อเสนอแนะหรือข้อมูลที่ควรจะรวมอยู่ที่นี่กรุณาส่งคำอธิบายสั้น ๆ เพื่อjessica@futureoflife.org