AI ในสหราชอาณาจักร: เรา ‘พร้อม เต็มใจ และสามารถ’ หรือไม่?
รายงานประจำเดือนเมษายนจากคณะกรรมการคัดเลือกด้านปัญญาประดิษฐ์ของสภาขุนนางถามว่าสหราชอาณาจักร ‘พร้อม เต็มใจ และมีความสามารถ’ สำหรับ AI หรือไม่ ดัชนีความพร้อมด้าน AIของรัฐบาลของเราจัดอันดับให้รัฐบาลสหราชอาณาจักรอยู่ในตำแหน่งที่ดีที่สุดใน OECD เพื่อใช้ประโยชน์จาก AI ในหลายๆ มาตรการ อย่างน้อย เราก็พร้อม . ไม่ว่าเราจะเต็มใจและสามารถเป็นอีกคำถามหนึ่ง
จากการหารือกับองค์กรและผู้เชี่ยวชาญที่หลากหลาย คณะกรรมการได้ให้คำแนะนำเชิงปฏิบัติสำหรับ AI ในสหราชอาณาจักร:
สำนักงานรัฐบาลสำหรับ AI ที่ช่วยประสานงานและเติบโต AI ในสหราชอาณาจักร
สภา AI เพื่อสร้างระบบแจ้งผู้คนเมื่อมีการตัดสินใจของ AI
รหัส AI ข้ามภาคส่วนเพื่อให้แน่ใจว่าการพัฒนาและการใช้งาน AI ยังคงถูกหลักจริยธรรม
- การศึกษา: การศึกษาเกี่ยวกับ AI อย่างกว้างขวางเป็นสิ่งจำเป็น แต่เราไม่รู้ว่าจะสอนอะไรและเพื่อใคร
ในฐานะสังคม ความเข้าใจของเราเกี่ยวกับ AI และเทคโนโลยีอื่นๆ ที่สร้างประสบการณ์ดิจิทัลของเรานั้นไม่แน่นอน ถ้อยแถลงจากวุฒิสมาชิกสหรัฐฯ ที่สอบปากคำซักเคอร์เบิร์กในเดือนเมษายน ที่แสดงให้เห็นว่าขาดความตระหนักรู้ทางอินเทอร์เน็ตขั้นพื้นฐาน เป็นที่มาของความบันเทิงสาธารณะมากมาย แต่ความไม่รู้ของผู้ใช้อินเทอร์เน็ตโดยเฉลี่ยเองก็อาจเป็นอันตรายได้เช่นกัน การหลีกเลี่ยงคำถามเกี่ยวกับสิทธิ์เสรีและเจตนาไม่ปลอดภัยอีกต่อไปเมื่อเราใช้เทคโนโลยี: ใครเป็นคนสร้างสิ่งนี้ สิ่งที่พวกเขาจะขาย? วิธีฉันจ่ายเงิน?
รายงานของคณะกรรมการคัดเลือกยังไม่มีข้อสรุปที่ชัดเจนว่ารัฐบาลสหราชอาณาจักรควรผลักดันวาระการศึกษาด้าน AI ไปไกลแค่ไหน นอกเหนือจากข้อเสนอแนะว่า ‘ประชาชนควรได้รับข้อมูลที่เกี่ยวข้อง’ คณะกรรมการยังไม่มีจุดยืนชัดเจนว่าใครควรให้ข้อมูลดังกล่าว และสิ่งใดที่นับเป็น ‘ที่เกี่ยวข้อง’ ข้อมูลสำนักงานคณะกรรมาธิการ (ICO) บอกว่ามันจะเป็นประโยชน์มากกว่าที่จะมุ่งเน้นไปที่ผลกระทบ AI มากกว่างานภายในเช่น ‘มีความจำเป็นที่จะเป็นจริงเกี่ยวกับความสามารถของประชาชนในการทำความเข้าใจในรายละเอียดวิธีการทำงานของเทคโนโลยี.
เราเห็นด้วยว่าการมุ่งเน้นที่ผลลัพธ์จะช่วยให้ผู้คนมีส่วนร่วมในการอภิปรายเกี่ยวกับ AI ในระยะสั้นได้ง่ายขึ้น แต่การเข้าใจพื้นฐานของวิธีการทำงานของอัลกอริธึมการเรียนรู้นั้นเป็นทักษะที่สำคัญสำหรับทุกคนที่มีส่วนร่วมในโลกแห่งเทคโนโลยีซึ่งปัจจุบันใช้ประโยชน์จากความไม่รู้ของเรา หากไม่เข้าใจว่าระบบ AI ทำงานอย่างไร และบริษัทต่างๆ ใช้ระบบเหล่านี้อย่างไร เราจะรู้ได้อย่างไรว่าเรากำลังลงชื่อสมัครใช้อะไรเมื่อเราคลิก ‘ยอมรับ’ กับชุดข้อกำหนดและเงื่อนไขที่เข้าใจยาก - ความรับผิดชอบ : เราต้องการความชัดเจนทางกฎหมายของความรับผิดชอบสำหรับ AI เพื่อส่งเสริมนวัตกรรมและปกป้องผู้ใช้อินเทอร์เน็ต
ในรายงานของศาสตราจารย์ Sir David Spiegelhalter ประธานRoyal Statistical Societyกล่าวว่าความรับผิดชอบสูงสุดในการรักษาความกระจ่างเกี่ยวกับวิธีการทำงานของระบบ AI นั้นขึ้นอยู่กับนักวิจัยและผู้ปฏิบัติงานแต่ละคนที่สร้างมันขึ้นมา เขาถามว่าทำไมพวกเขาไม่ ‘ทำงานกับสื่อและให้แน่ใจว่าเรื่องราวที่เหมาะสมจะปรากฏขึ้น’ แต่ในฐานะสังคม เรากำลังเปลี่ยนไปสู่การตำหนิบริษัทที่ซื้อระบบ AI จากนักวิจัย เหตุผลที่วุฒิสภาสหรัฐเพิ่งย่าง Facebook เป็นเพราะเราโกรธ Facebook ไม่ได้รับผิดชอบมากขึ้นในการให้ความรู้แก่ผู้ใช้เกี่ยวกับความหมายของนโยบายความเป็นส่วนตัว ยังไม่ชัดเจนว่าความรับผิดชอบของห่วงโซ่การผลิตอยู่ที่ใด
การอภิปรายของรายงานเกี่ยวกับประเด็นทางกฎหมายที่ยากลำบากเกี่ยวกับเทคโนโลยี AI นั้นน่าสนใจเป็นพิเศษ เริ่มต้นด้วยประเด็นทั่วไปว่ากระบวนการกำหนดความรับผิดชอบให้กับระบบ AI เป็นช่องว่างที่สำคัญในกรอบกฎหมายปัจจุบันของเรา อย่างไรก็ตาม มีมุมมองใหม่เกี่ยวกับข้อโต้แย้งที่พบบ่อยที่สุดข้อหนึ่งเกี่ยวกับกฎระเบียบในเทคโนโลยี นั่นคือ กฎระเบียบดังกล่าวยับยั้งนวัตกรรม รายงานระบุว่า ‘AI แตกต่างกัน’ เนื่องจาก ‘หากไม่มีกฎระเบียบที่ซับซ้อนซึ่งกำหนดความรับผิดชอบอย่างเหมาะสม บริษัทต่างๆ อาจไม่ต้องการใช้เครื่องมือ AI’ เป็นที่ชัดเจนว่าเราต้องทำให้ AI ปลอดภัยในการพัฒนาและใช้งาน - การลงทุน: ความโลดโผนของสื่อทำให้การลงทุนที่สมเหตุสมผลใน AI ยากขึ้น
การขาดความชัดเจนเกี่ยวกับปัญหาและศักยภาพของ AI ไม่ได้เป็นเพียงปัญหาสำหรับผู้ใช้เทคโนโลยีในชีวิตประจำวันเท่านั้น รายงานระบุถึงผลกระทบของ ‘ความหลงใหล’ ของฮอลลีวูดที่นำไปสู่การแบ่งขั้วของทัศนคติต่อการลงทุนของ AI ในเรื่องความกระตือรือร้นและความลังเลใจที่น่ากลัว Sarah O’Connor นักข่าวการจ้างงานของ Financial Times ตั้งข้อสังเกตว่าบทความที่มี ‘หุ่นยนต์’ หรือ ‘ปัญญาประดิษฐ์’ ในพาดหัวข่าวช่วยให้แน่ใจว่าอย่างน้อย ‘มีคนคลิกมากกว่าสองเท่า’ เธอกล่าวว่านักข่าวบางคนสร้างความตื่นเต้นให้กับหัวข้อนี้เพื่อกระตุ้นการเข้าชมเว็บและรายได้จากการโฆษณา
ในอีกด้านหนึ่ง ความกระตือรือร้นที่เพิ่มขึ้นของ AI ได้ทำให้นักวิจัยบางคนเพิ่มศักยภาพของ AI เพื่อ ‘ดึงดูดทุนวิจัยอันทรงเกียรติ’ ศาสตราจารย์ Kathleen Richardson และ Nika Mahnič ตั้งข้อสังเกตว่า ‘โครงการขนาดใหญ่ที่ได้รับทุนสนับสนุนจากสหภาพยุโรปกำลังส่งเสริมตำนานที่ไม่มีมูลเกี่ยวกับความสามารถของ AI’ ในทางกลับกัน นักวิจัย AI บางคนพูดถึงความกลัวว่าการพัฒนาและการลงทุนใน AI อาจถูก ‘คุกคามด้วยความเกลียดชังของสาธารณชนที่มีต่อพืชดัดแปลงพันธุกรรม (GM) ในปี 1990 และ 2000’ ( มูลนิธิ Raymond Williams )
นี่เป็นปัญหาของความรับผิดชอบอีกครั้ง บริษัททุกรูปแบบและทุกขนาดยังไม่ต้องอธิบายตนเองอย่างถูกต้อง ทั้งต่อนักลงทุนหรือสาธารณะ ดังนั้นจึงจำเป็นต้องมีความชัดเจนมากขึ้นเกี่ยวกับความสามารถของเทคโนโลยี AI เพื่อขับเคลื่อนการลงทุนในสหราชอาณาจักร
กำหนดขอบเขตของปัญหา
ด้วยการถือกำเนิดของปัญญาประดิษฐ์ (AI) ในหลาย ๆ ด้านของชีวิต เงินเดิมพันก็ยิ่งสูงขึ้นในทุกระดับ การลงทุนในบริษัทต่างๆ ที่พัฒนาแอพพลิเคชั่นปัญญาประดิษฐ์นั้นมีจำนวนมหาศาล แม้ว่าเทคโนโลยี AI ที่มีอยู่ส่วนใหญ่จะมุ่งเน้นค่อนข้างแคบ แต่การแข่งขันที่รุนแรงก็เกิดขึ้นจริง และส่งผลโดยตรงต่อการกระจายตัวของนักวิจัยระหว่างสถาบันวิจัยและองค์กรเอกชน
เมื่อเป้าหมายของปัญญาประดิษฐ์ทั่วไป (AGI) อยู่ในสายตา การแข่งขันในหลาย ๆ ด้านจะกลายเป็นความรุนแรงโดยมีผลกระทบร้ายแรงเกี่ยวกับความปลอดภัยของ AGI
ระบบ AI ทั่วไประบบแรกจะก่อกวนและเปลี่ยนแปลง ความได้เปรียบของผู้เสนอญัตติแรกจะเป็นตัวชี้ขาดในการตัดสินผู้ชนะการแข่งขัน เนื่องจากความสามารถของระบบที่เพิ่มขึ้นแบบทวีคูณที่คาดหวังและความยากที่ตามมาของฝ่ายอื่นๆ ในการติดตาม มีโอกาสที่งานด้านความปลอดภัยของ AI ที่ใช้เวลานานและน่าเบื่อจะหยุดเป็นลำดับความสำคัญเมื่อการแข่งขันเริ่มขึ้น ความเสี่ยงจากภัยพิบัติที่เกี่ยวข้องกับ AI จะเพิ่มขึ้นเมื่อนักพัฒนาไม่ทุ่มเทความสนใจและทรัพยากรเพื่อความปลอดภัยของระบบที่ทรงพลังดังกล่าว
เมื่อเปิดกล่องแพนโดร่านี้แล้ว จะปิดยาก เราต้องดำเนินการก่อนที่สิ่งนี้จะเกิดขึ้น และด้วยเหตุนี้ คำถามที่เราต้องการจะกล่าวถึงคือ:
เราจะหลีกเลี่ยงการวิจัย AI ทั่วไปที่กลายเป็นการแข่งขันระหว่างนักวิจัย นักพัฒนา และบริษัทต่างๆ ได้อย่างไร โดยที่ความปลอดภัยของ AI ถูกละเลยและหันมาใช้ AI ทั่วไปที่ทรงพลังแต่ไม่ปลอดภัยได้เร็วขึ้น
แรงบันดาลใจสำหรับโพสต์นี้
ในฐานะชุมชนนักพัฒนา AI เราควรพยายามหลีกเลี่ยงการแข่งขัน AI มีงานบางอย่างเกี่ยวกับหัวข้อนี้ในอดีต แต่ปัญหาส่วนใหญ่ยังไม่ได้รับการแก้ไข เราจำเป็นต้องมุ่งเน้นความพยายามของชุมชนในการแก้ไขปัญหานี้และหลีกเลี่ยงสถานการณ์ที่อาจเกิดภัยพิบัติซึ่งนักพัฒนาต้องแข่งขันกับระบบ AI ทั่วไประบบแรกในขณะที่เสียสละความปลอดภัยของมนุษย์และของตนเอง
โพสต์นี้ทำเครื่องหมาย “ขั้นตอนที่ 0” ที่เราได้ดำเนินการเพื่อแก้ไขปัญหา สรุปผลการประชุมเชิงปฏิบัติการที่จัดขึ้นโดยAI Roadmap Instituteเมื่อวันที่ 29 พฤษภาคม 2017 ที่สำนักงานใหญ่ของ GoodAI ในกรุงปราก โดยมี Seán Ó hÉigeartaigh ( CSER ) ร่วมด้วย Marek Havrda, Olga Afanasjeva, Martin Poliak ( GoodAI ), Martin Holec ( KISK MUNI ) และ Jan Feyereisl ( สถาบัน GoodAI & AI Roadmap ) เรามุ่งเน้นที่การกำหนดขอบเขตของปัญหา การกำหนดนักแสดงที่เกี่ยวข้อง และการแสดงภาพสถานการณ์ที่เป็นไปได้ของการแข่งขัน AI
การประชุมเชิงปฏิบัติการนี้เป็นครั้งแรกในซีรีส์ที่จัดขึ้นโดยเอไอ Roadmap สถาบันในการเตรียมตัวสำหรับการแข่งขันรอบ AI หลีกเลี่ยงการไอท้าทายทั่วไป ( อธิบายไว้ที่ด้านล่างของหน้านี้และวางแผนที่จะเปิดตัวในช่วงปลายปี 2017) การวางปัญหาการหลีกเลี่ยงการแข่งขันของ AI เป็นความท้าทายระดับโลกเป็นวิธีที่จะสนับสนุนให้ชุมชนให้ความสำคัญกับการแก้ปัญหานี้ สำรวจปัญหานี้เพิ่มเติม และจุดประกายความสนใจในการวิจัยด้านความปลอดภัยของ AI
โดยการเผยแพร่ผลการประชุมเชิงปฏิบัติการนี้และอนาคตและการเปิดตัวความท้าทายที่มุ่งเน้นไปที่การหลีกเลี่ยงการแข่งขันเอไอ, เราต้องการที่จะส่งเสริมการวิจัยด้านความปลอดภัย AI เกินขอบเขตของชุมชนเล็ก
ประเด็นนี้ควรอยู่ภายใต้วาทกรรมสาธารณะในวงกว้าง และควรได้รับประโยชน์จากการทำงานข้ามสาขาของนักเศรษฐศาสตร์เชิงพฤติกรรม นักจิตวิทยา นักสังคมวิทยา ผู้กำหนดนโยบาย นักทฤษฎีเกม ผู้เชี่ยวชาญด้านความปลอดภัย และอื่นๆ อีกมากมาย เราเชื่อว่าความโปร่งใสเป็นส่วนสำคัญในการแก้ไขปัญหาร้ายแรงหลายอย่างของโลก และการแข่งขัน AI ก็ไม่มีข้อยกเว้น ในทางกลับกัน อาจลดการควบคุมที่มากเกินไปและการควบคุมทางการเมืองที่ไม่สมควรซึ่งอาจขัดขวางการวิจัย AI
แนวความคิดที่เสนอเกี่ยวกับการแข่งขัน AI: ตัวอย่าง Roadmaps
แนวทางหนึ่งในการเริ่มต้นจัดการกับปัญหาการหลีกเลี่ยงการแข่งขันของ AI และการวางรากฐานสำหรับการอภิปรายอย่างถี่ถ้วนคือการสร้างแผนงานที่เป็นรูปธรรมที่ร่างสถานการณ์ที่เป็นไปได้ในอนาคต สถานการณ์สามารถนำมาเปรียบเทียบแล้วและบรรเทากลยุทธ์สำหรับการฟิวเจอร์เชิงลบจะได้รับการแนะนำ
เราใช้วิธีการง่ายๆ สองวิธีในการสร้างตัวอย่างแผนงาน :
วิธีที่ 1 : การพัฒนาเชิงเส้นอย่างง่ายของกิจการเป็นภาพโดยรูปทรงต่างๆและสีที่เป็นตัวแทนของความคิดต่อไปนี้: กิจการของรัฐนักแสดงที่สำคัญ, การกระทำ, ปัจจัยเสี่ยง แนวคิดต่างๆ ถูกจัดกลุ่มตามแต่ละสถานะกิจการ เพื่อแสดงให้เห็นผู้ดำเนินการ การดำเนินการ และปัจจัยเสี่ยงที่เกี่ยวข้องหลัก
ปัญหาไทม์สเกล
แผนงานมักเป็นความพยายามส่วนตัวและด้วยเหตุนี้จึงมีแนวทางในการสร้างแผนงานหลายวิธี ปัญหาแรกๆ ที่พบในระหว่างการประชุมเชิงปฏิบัติการคือเรื่องความแปรปรวนของเวลา แผนงานที่สร้างขึ้นโดยคำนึงถึงเหตุการณ์สำคัญในระยะใกล้จะแตกต่างอย่างมากจากแผนงานระยะยาว อย่างไรก็ตาม ไทม์ไลน์ทั้งสองนั้นต้องพึ่งพาอาศัยกัน แทนที่จะพิจารณามุมมองที่ชัดเจนเกี่ยวกับแผนงานระยะสั้น/ระยะยาว อาจเป็นประโยชน์เมื่อพิจารณาถึงความน่าจะเป็นเหล่านี้ ตัวอย่างเช่น แผนงานใดที่สามารถสร้างได้ หากมีโอกาส 25% ที่ AI ทั่วไปจะได้รับการพัฒนาภายใน 15 ปีข้างหน้า และมีโอกาส 75% ที่จะบรรลุเป้าหมายนี้ใน 15–400 ปี
การพิจารณาการแข่งขัน AI ในระดับชั่วขณะต่างๆ มีแนวโน้มที่จะทำให้เกิดแง่มุมต่างๆ ที่ควรเน้น ตัวอย่างเช่น นักแสดงแต่ละคนอาจคาดหวังความเร็วที่แตกต่างกันในการเข้าถึงระบบ AI ทั่วไประบบแรก สิ่งนี้สามารถมีผลกระทบอย่างมากต่อการสร้างแผนงาน และจำเป็นต้องรวมเข้าด้วยกันอย่างมีความหมายและแข็งแกร่ง ตัวอย่างเช่น สถานการณ์Boy Who Cried Wolfสามารถลดความไว้วางใจระหว่างนักแสดงและทำให้ความสัมพันธ์ระหว่างนักพัฒนา นักวิจัยด้านความปลอดภัย และนักลงทุนลดลง ซึ่งอาจส่งผลให้ความเชื่อในการพัฒนาระบบ AI ทั่วไประบบแรกลดลงในเวลาที่เหมาะสม ตัวอย่างเช่น ความเชื่อต่ำว่าการมาถึงของ AGI เร็วอาจส่งผลให้มีการคำนวณความเสี่ยงของการปรับใช้ AGI ที่ไม่ปลอดภัยโดยผู้หลอกลวง
[NPC5]นอกจากนี้ยังมีการระบุ “ส่วนย่อย” ของเวลาที่ชัดเจนสองครั้งซึ่งส่งผลให้เกิดปัญหาที่แตกต่างกันอย่างมีนัยสำคัญซึ่งจำเป็นต้องแก้ไข ยุคก่อนและหลัง AGI กล่าวคือ ก่อนที่ AI ทั่วไปตัวแรกจะได้รับการพัฒนา เมื่อเทียบกับสถานการณ์หลังจากมีผู้ครอบครองเทคโนโลยีดังกล่าว
ในการประชุมเชิงปฏิบัติการ การอภิปรายมุ่งเน้นไปที่ยุคก่อน AGI เป็นหลักเนื่องจากการหลีกเลี่ยงการแข่งขัน AI ควรเป็นการป้องกันมากกว่าความพยายามในการแก้ไข ตัวอย่างแผนงานแรก ที่นำเสนอนี้ครอบคลุมถึงยุคก่อน AGI ในขณะที่แผนงานที่สอง ที่สร้างขึ้นโดย GoodAI ก่อนการประชุมเชิงปฏิบัติการจะเน้นที่เวลาในการสร้าง AGI