Get in my Think Art.

จัดอันดับรัฐบาลเรื่อง AI – ถึงเวลาลงมือแล้ว

จัดอันดับรัฐบาลเรื่อง AI – ถึงเวลาลงมือแล้ว

จัดอันดับรัฐบาลเรื่อง AI – ถึงเวลาลงมือแล้ว

jumbo jili

Economist Intelligence Unit ซึ่งได้รับการสนับสนุนจากบริษัทเทคโนโลยี ABB ได้เผยแพร่รายงานของพวกเขาThe Automation Readiness Index: Who is Ready for the Coming Wave of Automation? บทความนี้ได้รับความสนใจอย่างรวดเร็วจากพาดหัวข่าวเกี่ยวกับ’การเพิ่มขึ้นของหุ่นยนต์’คล้ายกับบางเรื่องที่เราเห็นเมื่อปีที่แล้วเมื่อเราเผยแพร่ดัชนีความพร้อมของ AIของรัฐบาล

สล็อต

แม้ว่าในแวบแรก ดัชนีทั้งสองดูเหมือนจะวัดสิ่งที่คล้ายคลึงกัน แต่การดูรายงานของ EIU และตัวชี้วัดอินพุตเผยให้เห็นความแตกต่างที่น่าสนใจจำนวนหนึ่ง ความแตกต่างหลักคือสิ่งที่แต่ละดัชนีกำหนดไว้เพื่อวัด ดัชนีของเราตั้งโดยเฉพาะการที่จะตอบคำถาม: วิธีการที่ดีวางเป็นรัฐบาลแห่งชาติในกลุ่มประเทศ OECD ที่จะใช้ประโยชน์จากสิทธิประโยชน์ของระบบอัตโนมัติในการดำเนินงานของพวกเขา ? กล่าวอีกนัยหนึ่ง ดัชนีของเรารวบรวมศักยภาพของรัฐบาลระดับประเทศในการใช้ AI เพื่อช่วยเปลี่ยนแปลงการให้บริการสาธารณะและการดำเนินงานของตนเอง
ดัชนีของ EIU มีจุดสนใจที่แตกต่างกัน ดัชนีของพวกเขากำหนดให้ “กำหนดว่าประเทศใดอยู่ในตำแหน่งที่ดีกว่าในการรับมือกับความท้าทายด้านนโยบายที่เกิดจากระบบอัตโนมัติ” ปัจจัยการผลิตมุ่งเน้นไปที่สามด้าน: สภาพแวดล้อมนวัตกรรมที่ช่วยสนับสนุนการวิจัยในธุรกิจที่เกี่ยวข้องกับ AI และ AI; นโยบายการศึกษาที่ช่วยพัฒนาทักษะของมนุษย์ที่จำเป็นต่อการพัฒนาและใช้งานเทคโนโลยีเหล่านี้ และนโยบายตลาดแรงงานที่ออกแบบมาเพื่อจัดการการเปลี่ยนผ่านสู่เศรษฐกิจแบบอัตโนมัติ ดัชนีของ EIU มุ่งเน้นไปที่การรวบรวมแง่มุมบางอย่างของสภาพแวดล้อมทางนโยบายของประเทศหนึ่งๆ เพื่อเป็นตัวบ่งชี้ว่าประเทศนั้นมีความพร้อมสำหรับการนำ AI ไปใช้ในสังคมขนาดใหญ่อย่างไร
เราเชื่อมั่นในความสำคัญของการพัฒนาผู้มีความสามารถด้าน AI ในประเทศคุณภาพสูง หากประเทศใดประเทศหนึ่งต้องเติบโตในการปฏิวัติอุตสาหกรรมครั้งที่สี่ที่เรียกว่า รายงานของ EIU เน้นย้ำเรื่องนโยบายการศึกษาอย่างน่าชื่นชม โดยมีตัวชี้วัดตั้งแต่โปรแกรมการศึกษาด้านเทคโนโลยี โปรแกรมแนะแนวอาชีพ ไปจนถึงการใช้ AI และข้อมูลในการศึกษา การนำ AI ไปใช้ต้องมีมุมมองที่กว้างกว่ามาก ซึ่ง EIU พยายามจับผ่านตัวบ่งชี้ 52 ตัว โดยแบ่งออกเป็นประเด็นสำคัญที่กล่าวถึงข้างต้น ดัชนีที่เจาะจงมากขึ้นของเราประกอบด้วยเมตริกอินพุต 9 รายการ แบ่งออกเป็น 3 กลุ่มย่อย (การปฏิรูปบริการสาธารณะ เศรษฐกิจและทักษะ และโครงสร้างพื้นฐานดิจิทัล) EIU ใช้ประโยชน์จากข้อมูลเชิงคุณภาพที่น่าสนใจ เช่น การสัมภาษณ์ผู้เชี่ยวชาญจากทั่วโลก เพื่อเพิ่มบริบทและสีสันให้กับรายงาน
EIU ระบุว่าการตอบสนองต่อนโยบายที่แข็งแกร่งเพื่อจัดการกับความท้าทายและโอกาสของ AI นั้นยังขาดอยู่ เราไม่เห็นด้วย รัฐบาลได้เริ่มจัดทำเอกสารนโยบายที่กว้างไกลและมีการคิดล่วงหน้าเพื่อวางกลยุทธ์สำหรับวิธีที่พวกเขาวางแผนที่จะเพิ่มประโยชน์ของ AI ให้สูงสุด และลดผลกระทบที่อาจจะเกิดขึ้น กลยุทธ์ของฝรั่งเศสเช่น #FranceIA ตรวจสอบผลกระทบทางสังคมและเศรษฐกิจที่น่าจะเป็นไปได้ของ AI และเตรียมเตรียมประเทศให้พร้อมสำหรับอนาคตผ่านการฝึกอบรมและการวิจัย มีการเน้นย้ำอย่างชัดเจนในกลยุทธ์การสร้างแนวทางผู้มีส่วนได้ส่วนเสียหลายฝ่าย เมื่อเร็ว ๆ นี้เราได้เผยแพร่บล็อกที่ทบทวนกลยุทธ์ AI ระดับชาติที่มีอยู่ และ 5 หัวข้อหลักที่กลยุทธ์เหล่านี้แบ่งปัน:
จริยธรรม;
การใช้ AI ในภาครัฐและบริการสาธารณะ
วิจัยและพัฒนา;
ความสามารถ ทักษะ และการศึกษา
ข้อมูลและโครงสร้างพื้นฐานดิจิทัล
ตั้งแต่นั้นมา ประเทศใหม่ๆ ก็ได้สร้างกลยุทธ์ที่ครอบคลุมสำหรับ AI รวมถึงเม็กซิโก ซึ่งกลยุทธ์ AI ที่จะเกิดขึ้นนั้นจะขึ้นอยู่กับงานที่ดำเนินการโดย Oxford Insights โดยร่วมมือกับ C Minds ซึ่งเป็นพันธมิตรชาวเม็กซิกันของเรา รัฐบาลอื่นๆ เช่นอินเดียกำลังดำเนินการพัฒนารัฐบาลของตน เมื่อเร็ว ๆ นี้ 25 ประเทศในยุโรปได้ลงนามในปฏิญญาว่าด้วยความร่วมมือด้าน AI ของสหภาพยุโรปโดยให้คำมั่นที่จะทำงานร่วมกันเพื่อเพิ่มผลประโยชน์สูงสุดและลดความท้าทายของระบบอัตโนมัติ
ดัชนีทั้งสองแสดงให้เห็นถึงความเป็นจริงโดยสิ้นเชิง: รัฐบาลไม่สามารถหลีกเลี่ยงการเพิ่มขึ้นของ AI ได้ ใครไม่ลงมือทำจะถูกทิ้งไว้ข้างหลัง ดัชนีความพร้อมด้าน AI ของรัฐบาลแสดงให้เห็นว่ารัฐบาลระดับชาติหลายแห่งพร้อมที่จะมีส่วนร่วมเชิงรุกกับการอภิปรายเหล่านี้ ดัชนีการดำเนินการของ EIU ช่วยเติมเต็มให้กับเรา โดยแสดงให้เห็นว่าเหตุใดจึงสำคัญที่รัฐบาลต้องดำเนินการในตอนนี้ ความเหลื่อมล้ำระหว่างความสามารถและการนำไปปฏิบัตินั้นดูมีขนาดใหญ่ แต่เราต้องไม่ลดทอนหน่วยงานของรัฐบาลเพื่อสร้างสภาพแวดล้อมเพื่อใช้ประโยชน์จากประโยชน์ของ AI ในขณะที่บรรเทาความท้าทาย เป็นเรื่องน่ายินดีที่รัฐบาลหลายแห่งได้เริ่มดำเนินการแล้ว
การสร้างแบบจำลองและการตรวจสอบภาวะที่กลืนไม่เข้าคายไม่ออกในการตัดสินใจของผู้มีส่วนได้ส่วนเสียต่างๆ มักนำไปสู่ความจริงที่ว่าความร่วมมือสามารถเพิ่มการใช้มาตรการด้านความปลอดภัยของ AI ได้แพร่หลาย และลดความรุนแรงของการเปลี่ยนแปลงทางเชื้อชาติ
ปัญหาความร่วมมือ
ความร่วมมือระหว่างผู้มีบทบาทจำนวนมาก และจิตวิญญาณแห่งความไว้วางใจและความร่วมมือโดยทั่วไป มีแนวโน้มที่จะลดพลวัตของเชื้อชาติในระบบโดยรวม การเริ่มต้นด้วยความร่วมมือที่มีส่วนได้เสียต่ำระหว่างผู้ดำเนินการที่แตกต่างกัน เช่น การพัฒนาร่วมหรือความร่วมมือระหว่างนักวิจัยด้านความปลอดภัยและอุตสาหกรรม ควรช่วยสร้างความไว้วางใจและความเข้าใจที่ดีขึ้นเกี่ยวกับปัญหาที่เผชิญอยู่
ความร่วมมือเชิงรุกระหว่างผู้เชี่ยวชาญด้านความปลอดภัยและผู้นำในอุตสาหกรรม AI รวมถึงความร่วมมือระหว่างบริษัทพัฒนา AI ต่างๆ ในประเด็นด้านความปลอดภัยของ AI เช่น มีแนวโน้มที่จะส่งผลให้เกิดความสัมพันธ์ที่ใกล้ชิดยิ่งขึ้นและในการเผยแพร่ข้อมูลเชิงบวกในห่วงโซ่ นำไปสู่การปฏิบัติตามกฎระเบียบ ระดับ แนวทางปฏิบัติจริงในการวิจัยด้านความปลอดภัยด้วยต้นแบบการทำงานมีแนวโน้มที่จะให้ผลลัพธ์ที่ดีกว่าการโต้แย้งเชิงทฤษฎีเพียงอย่างเดียว
ประเด็นหนึ่งที่ต้องมีการตรวจสอบเพิ่มเติมในเรื่องนี้คือรูปแบบของความร่วมมือที่อาจดูเหมือนเป็นสัญชาตญาณ แต่อาจลดความปลอดภัยในการพัฒนา AI ลงได้

สล็อตออนไลน์

หาแรงจูงใจเพื่อหลีกเลี่ยงการแข่งขัน AI
เป็นเรื่องปกติที่นักพัฒนาที่ฉลาดจะต้องการป้องกันไม่ให้ระบบ AI ของตนก่อให้เกิดอันตรายต่อผู้สร้างและมนุษยชาติ ไม่ว่าจะเป็นระบบ AI แบบแคบหรือระบบ AI ทั่วไป ในกรณีของตัวร้าย น่าจะมีแรงจูงใจอย่างน้อยที่จะไม่ทำร้ายตัวเอง
เมื่อพิจารณาสิ่งจูงใจต่างๆ สำหรับการพัฒนาที่เน้นความปลอดภัย เราจำเป็นต้องค้นหาสิ่งจูงใจที่แข็งแกร่ง (หรือหลายสิ่งร่วมกัน) ที่จะผลักดันแม้แต่ผู้กระทำที่ไม่รู้จักให้ไปสู่ผลประโยชน์ A(G)I หรืออย่างน้อย A(G)I ที่สามารถ ควบคุม
เชื่อมโยงช่วงเวลาและประเด็นความร่วมมือเข้าด้วยกัน
เพื่อป้องกันไม่ให้เกิดสถานการณ์เชิงลบขึ้น ควรเชื่อมโยงขอบฟ้าเวลาที่แตกต่างกัน (ความเร็วที่คาดการณ์ไว้ของการมาถึงของ AGI) และความร่วมมือเข้าด้วยกัน ปัญหาที่เป็นรูปธรรมในความปลอดภัยของ AI (ความสามารถในการตีความ การหลีกเลี่ยงอคติ ฯลฯ) เป็นตัวอย่างของประเด็นที่เกี่ยวข้องในทางปฏิบัติซึ่งจำเป็นต้องได้รับการจัดการทันทีและโดยรวม ในเวลาเดียวกัน ประเด็นเดียวกันนี้เกี่ยวข้องกับขอบฟ้าที่ยาวไกลของการพัฒนา AGI ที่น่าจะเป็นไปได้ การชี้ให้เห็นถึงข้อกังวลดังกล่าวสามารถส่งเสริมความร่วมมือด้านความปลอดภัยของ AI ระหว่างนักพัฒนาต่างๆ โดยไม่คำนึงถึงขอบเขตที่คาดการณ์ไว้สำหรับการสร้าง AGI
รูปแบบของความร่วมมือที่เพิ่มแนวทางปฏิบัติด้านความปลอดภัยของ AI ให้สูงสุด
การส่งเสริมให้ชุมชน AI อภิปรายและพยายามแก้ไขปัญหาต่างๆ เช่น การแข่งขัน AI นั้นเป็นสิ่งจำเป็น แต่อาจไม่เพียงพอ เราจำเป็นต้องค้นหาสิ่งจูงใจที่ดีขึ้นและแข็งแกร่งขึ้นเพื่อมีส่วนร่วมกับนักแสดงจากสเปกตรัมที่กว้างขึ้นซึ่งนอกเหนือไปจากนักแสดงที่เกี่ยวข้องกับการพัฒนาระบบ AI แบบดั้งเดิม สามารถส่งเสริมความร่วมมือได้ในหลายสถานการณ์ เช่น:
การวิจัยด้านความปลอดภัยของ AI ดำเนินการอย่างเปิดเผยและโปร่งใส
การเข้าถึงการวิจัยด้านความปลอดภัยนั้นฟรีและไม่ระบุชื่อ: ทุกคนสามารถได้รับความช่วยเหลือและใช้ฐานความรู้โดยไม่จำเป็นต้องเปิดเผยตนเองหรือสิ่งที่พวกเขากำลังทำอยู่ และโดยไม่ต้องกลัวว่าจะสูญเสียความสามารถในการแข่งขัน (“สายด่วนความปลอดภัย AI” ชนิดหนึ่ง ),
พันธมิตรครอบคลุมถึงสมาชิกใหม่
สมาชิกใหม่ได้รับอนุญาตและสนับสนุนให้เข้าสู่โครงการความร่วมมือระดับโลกและพันธมิตรอย่างค่อยเป็นค่อยไป ซึ่งควรส่งเสริมการสร้างความไว้วางใจที่แข็งแกร่งและลดภาระให้กับทุกฝ่ายที่เกี่ยวข้อง ตัวอย่างของการรวมกลุ่มอย่างค่อยเป็นค่อยไปในพันธมิตรหรือโครงการความร่วมมือคือการเริ่มให้ความร่วมมือในประเด็นที่มีส่วนได้เสียต่ำจากมุมมองของการแข่งขันทางเศรษฐกิจตามที่ระบุไว้ข้างต้น
กล่าวปิด — ทำงานต่อไปเกี่ยวกับการหลีกเลี่ยงการแข่งขัน AI
ในโพสต์นี้ เราได้สรุปขั้นตอนแรกของเราในการแก้ปัญหาการแข่งขัน AI เรายินดีต้อนรับคุณให้เข้าร่วมในการอภิปรายและช่วยให้เราค่อยๆ คิดหาวิธีลดอันตรายจากการบรรจบกับสถานะที่อาจเป็นปัญหาได้
สถาบัน AI Roadmap จะยังคงทำงานเกี่ยวกับแผนงานการแข่งขันของ AI ระบุตัวดำเนินการเพิ่มเติม ตระหนักถึงมุมมองที่ยังมองไม่เห็น ช่วงเวลาและขอบเขตอันไกลโพ้น และค้นหาสถานการณ์การลดความเสี่ยง เราจะจัดการประชุมเชิงปฏิบัติการต่อไปเพื่อหารือเกี่ยวกับแนวคิดเหล่านี้และเผยแพร่แผนงานที่เราสร้างขึ้น ในที่สุด เราจะช่วยสร้างและเปิดตัวรอบการหลีกเลี่ยงการแข่งขัน AIของ General AI Challenge เป้าหมายของเราคือการมีส่วนร่วมกับชุมชนการวิจัยในวงกว้างและเพื่อให้มีพื้นฐานที่ดีเพื่อเพิ่มความเป็นไปได้ในการแก้ปัญหาที่ยากลำบากนี้
[NPC4]เกี่ยวกับ General AI Challenge และรอบการหลีกเลี่ยงการแข่งขัน AI
ทั่วไป AI ท้าทาย (ท้าทายสำหรับสั้น) เป็นโครงการพลเมืองวิทยาศาสตร์จัดโดยทั่วไปปัญญาประดิษฐ์ R & D บริษัท GoodAI GoodAI มอบเงิน 5 ล้านดอลลาร์เพื่อแจกเป็นรางวัลตลอดรอบต่างๆ ของการแข่งขันหลายปี เป้าหมายของการแข่งขันคือการจูงใจให้ผู้มีความสามารถจัดการกับปัญหาการวิจัยที่สำคัญในการพัฒนา AI ระดับมนุษย์ และเร่งการค้นหาปัญญาประดิษฐ์ทั่วไปที่ปลอดภัยและเป็นประโยชน์
สถาบัน AI Roadmap Institute อิสระซึ่งก่อตั้งโดย GoodAI ร่วมมือกับองค์กรและนักวิจัยจำนวนมากในประเด็นต่างๆ ที่เกี่ยวข้องกับ A(G)I รวมถึงความปลอดภัยของ AI ภารกิจของสถาบันคือการเร่งค้นหาปัญญาประดิษฐ์ระดับมนุษย์ที่ปลอดภัยโดยการสนับสนุน ศึกษา ทำแผนที่ และเปรียบเทียบแผนงานเพื่อบรรลุเป้าหมายนี้ ปัจจุบัน สถาบัน AI Roadmap Institute กำลังช่วยกำหนดรอบที่สองของการแข่งขัน นั่นคือ AI Raceหลีกเลี่ยงจัดการกับคำถามเรื่องการหลีกเลี่ยงการแข่งขัน AI (กำหนดจะเปิดตัวในปลายปี 2560)
ผู้เข้าร่วมการแข่งขันรอบที่สองจะนำเสนอการวิเคราะห์และ/หรือแนวทางแก้ไขปัญหาการหลีกเลี่ยงการแข่งขัน AI การส่งของพวกเขาจะถูกประเมินในขั้นตอนการประเมินสองขั้นตอน: ผ่าน a) การยอมรับจากผู้เชี่ยวชาญและ b) การยอมรับทางธุรกิจ ผลงานที่ชนะจะได้รับรางวัลเป็นเงินโดย GoodAI
การยอมรับจากผู้เชี่ยวชาญ
รางวัลคณะลูกขุนผู้เชี่ยวชาญจะมอบให้สำหรับแนวคิด แนวคิด การศึกษาความเป็นไปได้ หรือควรเป็นกลยุทธ์ที่นำไปปฏิบัติได้จริง ซึ่งแสดงให้เห็นคำมั่นสัญญาสูงสุดในการสร้างความมั่นใจในการพัฒนาที่ปลอดภัยและหลีกเลี่ยงการปรับใช้ A(G)I ที่มีแนวโน้มว่าไม่ปลอดภัยอย่างเร่งด่วนอันเป็นผลมาจากแรงกดดันของตลาดและการแข่งขัน .
การยอมรับทางธุรกิจ
ผู้นำในอุตสาหกรรมจะได้รับเชิญให้ประเมินผลงานที่ส่งเข้ามา 10 อันดับแรกจากรางวัลคณะลูกขุนผู้เชี่ยวชาญ และอาจส่งผลงานอีกสองสามรายการตามที่พวกเขาเลือก (ซึ่งอาจรวมถึงข้อเสนอที่อาจมีศักยภาพสำหรับการพัฒนาครั้งสำคัญในขณะที่ขาดเกณฑ์ความเป็นไปได้)
รางวัลการยอมรับทางธุรกิจเป็นวิธีการสร้างสมดุลระหว่างการวิจัยและชุมชนธุรกิจ
ข้อเสนอจะได้รับการปฏิบัติภายใต้ใบอนุญาตแบบเปิดและจะเผยแพร่สู่สาธารณะพร้อมกับชื่อผู้แต่ง แม้จะไม่มีวิธีแก้ปัญหาที่ “สมบูรณ์แบบ” ก็ตาม เป้าหมายของ General AI Challenge รอบนี้ควรสำเร็จได้ด้วยการพัฒนางานในหัวข้อนี้และส่งเสริมความสนใจในความปลอดภัยของ AI ในทุกสาขาวิชา
NSเมื่อหลายสิบปีก่อน ฉันเริ่มทำงานเกี่ยวกับหน่วยเมตริกของแมชชีนอัจฉริยะ ในช่วงเวลานั้น ในช่วงวันที่อากาศหนาวเย็นของฤดูหนาว AI ครั้งที่สอง มีเพียงไม่กี่คนที่สนใจที่จะวัดสิ่งที่ AI ขาดไปโดยสิ้นเชิง และน้อยมากเช่นเดวิดลิตร Dowe และฉันมีความสนใจในตัวชี้วัดของปัญญาที่เชื่อมโยงกับทฤษฎีข้อมูลอัลกอริทึมที่รูปแบบของการทำงานร่วมกันระหว่างตัวแทนและทั่วโลกเป็นลำดับของบิตและปัญญาเป็นสูตรที่ใช้ของ Solomonoffและวอลเลซทฤษฎี ของการอนุมานอุปนัย
[NPC5]ในขณะเดียวกันดูเหมือนว่าหลายสิบสายพันธุ์ของการทดสอบทัวริงถูกเสนอทุกปี CAPTCHAs ถูกแนะนำให้รู้จักและเดวิดแสดงให้เห็นว่าง่ายก็คือการแก้ปัญหาการทดสอบไอคิวโดยใช้โปรแกรมที่ง่ายมากขึ้นอยู่กับวิธีการใหญ่สวิทช์ และในวันนี้ ฤดูใบไม้ผลิของ AI ใหม่ได้มาถึงแล้ว ซึ่งเกิดขึ้นจากสนามการเรียนรู้ของเครื่องที่กำลังเบ่งบาน นำแนวทางการทดลองไปสู่ ​​AI มากขึ้นด้วยเกณฑ์มาตรฐานและการแข่งขัน AI ที่เพิ่มขึ้น(ดูรายการก่อนหน้าในบล็อกนี้สำหรับการสำรวจ )