Get in my Think Art.

AI จะฉลาดแค่ไหน?

AI จะฉลาดแค่ไหน?

AI จะฉลาดแค่ไหน?

jumbo jili

หลักการข้อควรระวังด้านความสามารถ: หากไม่มีความเห็นพ้องต้องกัน เราควรหลีกเลี่ยงสมมติฐานที่แข็งแกร่งเกี่ยวกับขีดจำกัดบนของความสามารถ AI ในอนาคต
การเปลี่ยนแปลงครั้งสำคัญกำลังจะมาถึง ในช่วงเวลาที่ไม่มีใครรู้จัก แต่ในทุกส่วนของสังคม และผู้คนที่มีส่วนร่วมในการเปลี่ยนแปลงนั้นมีความรับผิดชอบและโอกาสในการปรับแต่งให้ดีที่สุด อะไรจะทำให้เกิดการเปลี่ยนแปลงนี้ ปัญญาประดิษฐ์.

สล็อต

หลักการ AI 23 ประการของ Asilomar นำเสนอกรอบการทำงานเพื่อช่วยให้ปัญญาประดิษฐ์เป็นประโยชน์ต่อผู้คนมากที่สุด แต่โทบี้ วอลช์ ผู้เชี่ยวชาญด้าน AI กล่าวถึงหลักการนี้ว่า “แน่นอนว่านี่เป็นเพียงการเริ่มต้น … งานที่กำลังดำเนินการอยู่” หลักการเป็นตัวแทนของการเริ่มต้นการสนทนา และตอนนี้เราจำเป็นต้องติดตามผลด้วยการสนทนากว้างๆ เกี่ยวกับหลักธรรมแต่ละข้อ คุณสามารถอ่านรายสัปดาห์อภิปรายเกี่ยวกับหลักการก่อนหน้านี้ที่นี่
ความสามารถ ข้อควรระวัง
หนึ่งในคำถามที่ยิ่งใหญ่ที่สุดที่นักวิจัย AI เผชิญคือปัญญาประดิษฐ์จะฉลาดและมีความสามารถเพียงใด
ในช่วงไม่กี่ปีที่ผ่านมา การพัฒนา AI ได้เร่งขึ้นอย่างก้าวกระโดด AlphaGo ของ DeepMind มีประสิทธิภาพเหนือกว่ามนุษย์ในเกม Go ที่ท้าทายและสลับซับซ้อน และบริษัทได้สร้าง AI ที่สามารถเรียนรู้การเล่นวิดีโอเกม Atari ได้อย่างรวดเร็วด้วยความสามารถที่มากกว่าคน นอกจากนี้เรายังได้เห็นความก้าวหน้าและความก้าวหน้าในการแปลภาษา ยานพาหนะที่ขับเคลื่อนด้วยตัวเอง และแม้แต่การสร้างโมเลกุลยาใหม่
แต่ AI จะสามารถพัฒนาไปได้ไกลแค่ไหน? มันจะยังคงเก่งเฉพาะในงานแคบ ๆ หรือจะพัฒนาทักษะการเรียนรู้ที่กว้างขึ้นซึ่งจะทำให้ AI ตัวเดียวทำงานได้ดีกว่ามนุษย์ในงานส่วนใหญ่หรือไม่? เราจะเตรียมตัวสำหรับ AI ที่ฉลาดกว่าที่เราจินตนาการได้อย่างไร?
ผู้เชี่ยวชาญบางคนคิดว่า AI ระดับมนุษย์หรือแม้แต่ระดับยอดมนุษย์สามารถพัฒนาได้ภายในเวลาไม่กี่ทศวรรษ ในขณะที่บางคนไม่คิดว่าจะมีใครทำสำเร็จได้สำเร็จ หลักการเตือนความสามารถให้เหตุผลว่า จนกว่าเราจะมีหลักฐานที่เป็นรูปธรรมเพื่อยืนยันสิ่งที่ AI สามารถทำได้ในสักวันหนึ่ง มันจะปลอดภัยกว่าที่จะสรุปว่าไม่มีขีดจำกัดสูงสุด นั่นคือ ณ ตอนนี้ อะไรก็ตามที่เป็นไปได้ และเราจำเป็นต้องวางแผนตามนั้น
ความคิดเห็นของผู้เชี่ยวชาญ
หลักการเตือนความสามารถดึงทั้งฉันทามติและความขัดแย้งจากผู้เชี่ยวชาญ ในขณะที่ทุกคนที่ฉันสัมภาษณ์โดยทั่วไปเห็นพ้องต้องกันว่าเราไม่ควรตั้งข้อ จำกัด ขั้นสูงสำหรับ AI เหตุผลของพวกเขาแตกต่างกันไปและมีข้อกังวลบางประการ
Stefano Ermonผู้ช่วยศาสตราจารย์ที่ Stanford และRoman Yampolskiyรองศาสตราจารย์ที่ University of Louisville ต่างก็ใช้แนวทางที่ปลอดภัยกว่าขออภัย
Ermon หันไปใช้ประวัติศาสตร์เพื่อเป็นการเตือนว่าการทำนายในอนาคตยากเพียงใด เขาอธิบายว่า “เป็นการยากที่จะคาดเดาอนาคต … ลองนึกถึงสิ่งที่ผู้คนจินตนาการเมื่อร้อยปีที่แล้วว่าอนาคตจะเป็นอย่างไร … ฉันคิดว่าคงเป็นเรื่องยากมากสำหรับพวกเขาที่จะจินตนาการถึงสิ่งที่เรามีในวันนี้ ฉันคิดว่าเราควรมองที่คล้ายคลึงกัน ระมัดระวังในการคาดการณ์อนาคต ถ้ามันยากมากก็ดีกว่าที่จะเล่นอย่างปลอดภัย”
Yampolskiy พิจารณานโยบายความปลอดภัยทางเทคโนโลยีในปัจจุบัน โดยกล่าวว่า “ในหลาย ๆ ด้านของวิทยาการคอมพิวเตอร์ เช่น ความซับซ้อนหรือการเข้ารหัส สมมติฐานเริ่มต้นคือเราจัดการกับสถานการณ์กรณีที่เลวร้ายที่สุด ในทำนองเดียวกัน ในความปลอดภัยของ AI เราควรสมมติว่า AI จะมีความสามารถสูงสุดและเตรียมการตามนั้น หากเราผิดเราจะยังอยู่ในสภาพที่ดี”
Dan Weldศาสตราจารย์แห่งมหาวิทยาลัย Washington กล่าวถึงหลักการนี้ว่า “ฉันเห็นด้วย! ในฐานะนักวิทยาศาสตร์ ฉันไม่เห็นด้วยกับการตั้งสมมติฐานที่หนักแน่นหรือไม่ยุติธรรมในสิ่งใดๆ แน่นอน ฉันเห็นด้วย”
แม้ว่าเขาจะเห็นด้วยกับแนวคิดพื้นฐานที่อยู่เบื้องหลังหลักการนี้ แต่ Weld ก็มีข้อกังขาเช่นกัน “หลักการนี้รบกวนจิตใจฉัน” Weld อธิบาย “… เพราะดูเหมือนว่าจะเป็นการบอกโดยปริยายว่ามีอันตรายในทันทีที่ AI จะกลายเป็นมนุษย์ ซึ่งโดยทั่วไปแล้วจะฉลาดในเร็วๆ นี้ และเราจำเป็นต้องกังวลเกี่ยวกับปัญหานี้ การยืนยันนี้ … เกี่ยวกับฉันเพราะฉันคิดว่ามันเป็นการเบี่ยงเบนความสนใจจากปัญหาที่น่าจะใหญ่กว่า สำคัญกว่า เป็นปัญหาในระยะสั้นมากกว่า และอาจสร้างความเสียหายได้ ฉันกังวลมากขึ้นเกี่ยวกับการสูญเสียงานและความจำเป็นในการดูแลสุขภาพ การศึกษา และรายได้ขั้นพื้นฐานที่รับประกันบางประเภทมากกว่าที่ฉันเป็นเกี่ยวกับ Skynet และฉันกังวลเกี่ยวกับผู้ก่อการร้ายบางคนที่ใช้ระบบ AI และพยายามตั้งโปรแกรมให้ฆ่าคนอเมริกันมากกว่าที่ฉันคิดเกี่ยวกับระบบ AI ที่ตื่นขึ้นมาและตัดสินใจว่าควรทำอย่างนั้นด้วยตัวเอง”
เมื่อมองปัญหาจากมุมมองที่ต่างออกไปGuruduth Banavarรองประธานฝ่ายวิจัยของ IBM กังวลว่าการกำหนดขอบเขตบนในความสามารถของ AI อาจจำกัดความเป็นไปได้ที่เป็นประโยชน์ Banavar อธิบายว่า “แนวคิดทั่วไปก็คือ ความฉลาดที่เราเข้าใจในทุกวันนี้ คือความสามารถในการประมวลผลข้อมูลจากแหล่งที่เป็นไปได้ทั้งหมด และนำไปใช้ในการทำนายอนาคตและปรับให้เข้ากับอนาคต ทั้งหมดอยู่ในขอบเขตของความเป็นไปได้ที่เครื่องจักรสามารถทำได้ … ฉันคิดว่าเราควรหลีกเลี่ยงข้อสันนิษฐานของขีดจำกัดบนของปัญญาประดิษฐ์ เพราะฉันไม่ต้องการข้อ จำกัด ประดิษฐ์ว่า AI ขั้นสูงสามารถเป็นอย่างไร”
Francesca Rossiนักวิทยาศาสตร์ด้านการวิจัยของ IBM พิจารณาหลักการนี้จากอีกมุมมองหนึ่ง โดยแนะนำว่า AI เป็นสิ่งจำเป็นสำหรับมนุษยชาติในการบรรลุความสามารถของเราอย่างเต็มที่ โดยที่เราไม่ต้องการใช้ขีดจำกัดบน

สล็อตออนไลน์

“โดยส่วนตัวแล้ว ฉันกำลังสร้างระบบ AI ที่เสริมความฉลาดของมนุษย์แทนที่จะแทนที่ความฉลาดของมนุษย์” Rossi กล่าว “และฉันคิดว่าในพื้นที่ของการเสริมปัญญาของมนุษย์นั้น มีศักยภาพมหาศาลสำหรับ AI ในการสร้างชีวิตส่วนตัวและอาชีพของ ทุกคนดีขึ้นมาก ฉันไม่คิดว่าความสามารถด้าน AI ในอนาคตมีขีดจำกัดในแง่นั้น ฉันคิดว่าระบบ AI ร่วมกับมนุษย์มากขึ้นเรื่อยๆ จะช่วยเสริมความฉลาดของเรา ซึ่งเป็นส่วนเสริมของความฉลาดทางปัญญาที่เครื่องจักรมี และจะช่วยให้เราตัดสินใจได้ดีขึ้น ใช้ชีวิตได้ดีขึ้น และแก้ปัญหาที่เราไม่รู้ วิธีแก้ปัญหาในตอนนี้ ฉันไม่เห็นขีด จำกัด บนนั้น”
มุมมองแบบเบย์ของปัญหา
นั่นเป็นงานที่มีอยู่ในการระบุความกำกวมแบบอุปนัย เราทำงานอะไรที่ MIRI เกี่ยวกับเรื่องนี้บ้าง
เมื่อเร็ว ๆ นี้ ฉันพยายามแก้ไขปัญหานี้จากมุมมองของเบย์เซียน ในมุมมองนี้ เรามีQก่อนหน้าบางอย่างเกี่ยวกับการแมปX → {0,1} จากพื้นที่อินพุตไปยังป้ายกำกับ สมมุติฐานที่เราจะทำก็คือว่าก่อนหน้าของเรานั้นผิดในทางใดทางหนึ่งและมีP ที่ “จริง” ก่อนหน้าที่ไม่รู้จักเหนือการแมปเหล่านี้ เป้าหมายของเราคือว่าถึงแม้ระบบที่มีการเข้าถึงเฉพาะQก็ควรดำเนินการจัดหมวดหมู่เกือบเช่นกัน (ในความคาดหวังมากกว่าP ) ราวกับว่ามันรู้แล้วP
ดูเหมือนว่างานนี้ยาก หากโลกแห่งความจริงถูกสุ่มตัวอย่างจากPและPแตกต่างจากQก่อนหน้าของคุณการรับประกันไม่มากนัก เพื่อให้เข้าใจได้ง่าย เราสามารถเพิ่มข้อสันนิษฐานความจริงได้ดังนี้
∀ f : Q ( f ) ≥ 1 k P ( f )
นี่บอกว่าถ้าPกำหนดความน่าจะเป็นสูงให้กับบางสิ่งQก็เช่นกัน เราจะได้รับประสิทธิภาพที่ดีในงานจำแนกประเภทต่าง ๆ ภายใต้สมมติฐานประเภทนี้หรือไม่?
เรายังดำเนินการวิจัยไม่เสร็จสิ้น แต่ผลการวิจัยเบื้องต้นชี้ให้เห็นว่ามีความเป็นไปได้ที่จะทำงานนี้ได้ดีพอๆ กับที่หลีกเลี่ยงพฤติกรรมภัยพิบัติ อย่างน้อยก็ในบางกรณี (เช่น การเรียนรู้ภายใต้การดูแลทางออนไลน์) นั่นค่อนข้างมีแนวโน้มและนี่เป็นพื้นที่สำหรับการวิจัยในอนาคตอย่างแน่นอน
สิ่งนี้เชื่อมโยงกับการระบุความกำกวมแบบอุปนัย: หากคุณไม่แน่ใจว่าอะไรเป็นความจริง ก็มีหลายวิธีในการอธิบายว่าความไม่แน่นอนนั้นเกี่ยวกับอะไร คุณสามารถลองนำความเชื่อของคุณมาแบ่งแยกออกเป็นความเป็นไปได้ต่างๆ นั่นเป็นความกำกวมในบางแง่มุม เพราะคุณไม่รู้ว่าความเป็นไปได้ใดถูกต้อง เราสามารถนึกถึงเกรนแห่งความจริงโดยสมมติโดยบอกว่ามีวิธีแยกการกระจายความน่าจะเป็นออกเป็นส่วนประกอบ โดยที่องค์ประกอบหนึ่งๆ นั้นถูกต้อง ระบบควรทำงานได้ดีแม้ว่าจะไม่รู้ว่าองค์ประกอบใดถูกต้องในตอนแรก
(สำหรับการทำงานล่าสุดเกี่ยวกับปัญหานี้ โปรดดู “ Red Teams ” และ “ Learning with Catastrophes ” ของ Paul Christiano และผลจากฟอรัมการวิจัยจากฉันและ Ryan Carey: “ ผู้เรียนออนไลน์ที่ตรวจหาอคติ ” และ “ การเรียนรู้จากฝ่ายตรงข้ามกับภัยพิบัติ ”)

jumboslot

วาระการวิจัยอื่นๆ
กลับมาที่มุมมองกว้างๆ และพิจารณาวาระการวิจัยอื่นๆ ที่เน้นเรื่องความปลอดภัยของ AI ในระยะยาว วาระแรกดังกล่าวได้ระบุไว้ในรายงานมูลนิธิตัวแทนปี 2557 ของ MIRI
วาระการประชุมพื้นฐานตัวแทนเป็นเรื่องเกี่ยวกับการพัฒนาความเข้าใจเชิงทฤษฎีที่ดีขึ้นเกี่ยวกับการให้เหตุผลและการตัดสินใจ ตัวอย่างของช่องว่างที่เกี่ยวข้องในทฤษฎีปัจจุบันของเราคือการให้เหตุผลในอุดมคติเกี่ยวกับข้อความทางคณิตศาสตร์ (รวมถึงข้อความเกี่ยวกับโปรแกรมคอมพิวเตอร์) ในบริบทที่คุณไม่มีเวลาหรือคำนวณเพื่อทำหลักฐานทั้งหมด นี่คือปัญหาพื้นฐานที่เรากำลังเผชิญใน “ การเหนี่ยวนำเชิงตรรกะ ” ในการบรรยายนี้ ฉันได้เน้นที่ปัญหาสำหรับระบบ AI ขั้นสูงที่คล้ายกับ ML ในปัจจุบันในวงกว้าง ในทางตรงกันข้าม ปัญหาพื้นฐานของตัวแทนนั้นไม่เกี่ยวกับรายละเอียดของระบบ นำไปใช้กับระบบ ML แต่ยังรวมถึงกรอบงานอื่นที่เป็นไปได้สำหรับการให้เหตุผลทั่วไปที่ดี
แล้วก็มีวาระ “ ปัญหาที่เป็นรูปธรรมในความปลอดภัยของ AI ” 10นี่คือความคิดที่จะศึกษาปัญหาความปลอดภัยของ AI ที่มีความสำคัญเชิงประจักษ์มากขึ้นโดยเฉพาะการมองหาปัญหาที่เราสามารถเรียนโดยใช้วิธีการ ML ปัจจุบันและบางทีก็สามารถแสดงให้เห็นในระบบปัจจุบันหรือในระบบที่อาจจะมีการพัฒนาในอนาคตอันใกล้
ตัวอย่างเช่น ลองพิจารณาคำถามที่ว่า “คุณจะสร้างตัวแทน RL ที่ทำงานอย่างปลอดภัยได้อย่างไรในขณะที่ยังสำรวจสภาพแวดล้อมและเรียนรู้ว่าสภาพแวดล้อมทำงานอย่างไร” เป็นคำถามที่เกิดขึ้นในระบบปัจจุบันตลอดเวลา และค่อนข้างง่ายในการศึกษาในปัจจุบัน แต่มีแนวโน้มที่จะนำไปใช้กับระบบที่มีความสามารถมากขึ้นเช่นกัน
วาระต่างๆ เหล่านี้แสดงถึงมุมมองที่แตกต่างกันเกี่ยวกับวิธีที่อาจทำให้ระบบ AI มีความน่าเชื่อถือมากขึ้นในลักษณะที่ขยายตามความก้าวหน้าของความสามารถ และความหวังของเราก็คือการสนับสนุนให้ทำงานเกี่ยวกับปัญหาต่างๆ ที่หลากหลายจากมุมมองต่างๆ ที่หลากหลาย มีโอกาสน้อยที่จะพลาดการพิจารณาที่สำคัญอย่างสมบูรณ์ ในเวลาเดียวกัน เราสามารถบรรลุความมั่นใจมากขึ้นว่าเรามาถูกทางแล้ว เมื่อแนวทางที่ค่อนข้างเป็นอิสระทั้งหมดได้ข้อสรุปที่คล้ายคลึงกัน
ฉันเป็นผู้นำทีมที่ MIRI ซึ่งจะมุ่งเน้นไปที่วาระ “การจัดตำแหน่งสำหรับระบบ ML ขั้นสูง” ในอนาคต ดูเหมือนว่ายังมีที่ว่างมากมายสำหรับจับตาดูปัญหาเหล่านี้ และเราหวังว่าจะจ้างนักวิจัยใหม่จำนวนหนึ่ง และเริ่มต้นความร่วมมือจำนวนมากเพื่อแก้ไขปัญหาเหล่านี้ หากคุณกำลังสนใจในปัญหาเหล่านี้และมีพื้นหลังเป็นของแข็งในวิชาคณิตศาสตร์หรือวิทยาศาสตร์คอมพิวเตอร์แน่นอนผมขอแนะนำให้ได้รับในการติดต่อหรืออ่านเพิ่มเติมเกี่ยวกับปัญหาเหล่านี้
โควิด-19 ส่งผลกระทบอย่างมากต่อเรา และเราทุกคนต่างก็ดิ้นรนที่จะรักษาแรงจูงใจและ ‘ผลิตภาพ’! โชคดีที่มีเนื้อหาให้อ่านมากมายเกี่ยวกับการดูแลสุขภาพจิตของเรา แต่ในขณะที่เรากำลังพยายามดูแลตัวเองและทีมของเรา เรายังคงต้องสร้างความปกติบางอย่างและทำงานให้เสร็จ
ก่อนที่ COVID-19 จะมาถึงเรา เราได้ดำเนินการจัดเวิร์กช็อปแบบตัวต่อตัวกับพนักงาน 30 คนในระยะเวลาสามชั่วโมงสำหรับ UK Government Digital Service เกี่ยวกับวิธีการใช้แนวทางที่ตอบสนองต่อเพศสภาพมากขึ้นและครอบคลุมสังคมในการจัดซื้อจัดจ้าง ICT ผู้เข้าร่วมของเราจะเป็นส่วนหนึ่งของทีมที่ทำงานในโครงการอื่นๆ สำหรับ UK Global Digital Marketplace ในการจัดซื้อ ICT ดังนั้น มันเป็นแผนที่ทะเยอทะยานอยู่แล้ว การพยายามโน้มน้าวให้ผู้คนเห็นความเท่าเทียมทางเพศและการรวมตัวทางสังคมในกระแสหลัก (เรียกสั้นๆ ว่า GESI) เป็นเรื่องยากในช่วงเวลาที่ดีที่สุด แม้จะมีทีม Oxford Insights ที่กระตือรือร้นและลูกค้าที่ยอดเยี่ยม เราก็รู้ดีว่านี่จะเป็นความท้าทาย แต่เมื่อมี COVID ปะปนอยู่ เราก็รู้สึกว่าเรากำลังยิงเพื่อสิ่งที่เป็นไปไม่ได้
การทำให้ผู้คนมีส่วนร่วมและสนุกสนานในเวิร์กชอปอยู่เสมออาจเป็นเรื่องที่ท้าทาย แต่จู่ๆ ก็ต้องดำเนินการออนไลน์ เรากังวลว่าผู้เข้าร่วมจะปิดตัวลง (ทั้งโดยแท้จริงและในเชิงเปรียบเทียบ) ในขณะที่เราค่อนข้างแน่ใจในเนื้อหาและผลลัพธ์ที่เราต้องการจากเวิร์กช็อป – แบ่งปันการเรียนรู้และทำงานร่วมกันเพื่อสร้างวิธีการรวม GESI ในงานอื่น ๆ เกี่ยวกับการจัดซื้อ ICT – เราสงสัยว่าจะดำเนินการเวิร์กช็อปอย่างไร
ปรากฏว่าผ่านไปได้ด้วยดี ลูกค้ามีความสุข ผู้เข้าร่วมมีส่วนร่วม และเราบรรลุเป้าหมาย เนื่องจากการประชุมเชิงปฏิบัติการออนไลน์ดูเหมือนจะอยู่กับเรามาระยะหนึ่งแล้ว ฉันคิดว่าการแชร์ว่าเราดำเนินการอย่างไรและเรียนรู้บทเรียนต่างๆ ได้จะเป็นประโยชน์มาก
[NPC5]การประชุมเชิงปฏิบัติการออนไลน์ที่ยอดเยี่ยมที่เกิดขึ้นในขณะนี้บนความเสมอภาคทางเพศและการรวมทางสังคมในการจัดซื้อจัดจ้างสาธารณะอำนวยความสะดวกโดย@oxfordinsightsสำหรับ@GDSTeam #GlobalDigitalMarketplaceทีมและอื่น ๆ ที่@gov_procurement #DOSคู่ค้าจัดส่ง@dgateway @PA_Consulting @SpendNetwork @mySociety pic.twitter.com/BWyGfwKrNz
– Citoyen Dangersmith (@wdangersmith) วันที่ 3 เมษายน 2020