Get in my Think Art.

Month: September 2021

การแข่งขันมอบรางวัลความปลอดภัย AI ระดับนานาชาติปี 2018

การแข่งขันมอบรางวัลความปลอดภัย AI ระดับนานาชาติปี 2018

การแข่งขันมอบรางวัลความปลอดภัย AI ระดับนานาชาติปี 2018 jumbo jili I. อนาคตของ AI: การเก็บเกี่ยวผลประโยชน์ในขณะที่หลีกเลี่ยงหลุมพรางเป็นเวลาหลายปีแล้วที่การวิจัยด้านปัญญาประดิษฐ์ (AI) ได้มุ่งเน้นอย่างเหมาะสมกับความท้าทายในการทำให้ AI มีประสิทธิภาพ ด้วยความสำเร็จครั้งสำคัญเมื่อเร็วๆ นี้ และสัญญาในอนาคตที่ดี ความสำเร็จเมื่อเร็วๆ นี้ทำให้เกิดคำถามสำคัญ: เราจะแน่ใจได้อย่างไรว่าพลังที่เพิ่มขึ้นของ AI นั้นตรงกับภูมิปัญญาที่เพิ่มขึ้นซึ่งเราจัดการด้วย ใน จดหมายเปิดผนึก ในปี 2558 กลุ่มนักวิจัย AI ชั้นนำระดับนานาชาติจากภาควิชาการและอุตสาหกรรมแย้งว่าความสำเร็จนี้ทำให้การวิจัยมีความสำคัญและทันเวลา รวมถึงวิธีการทำให้ระบบ AI แข็งแกร่ง และเป็น ประโยชน์รวมถึงทิศทางการวิจัยที่เป็นรูปธรรมที่สามารถ ถูกไล่ล่าในวันนี้ ในต้นปี 2560 กลุ่มผู้นำ AI ในวงกว้างได้ดำเนินการต่อไปและลงนามในหลักการ AI ของ Asilomarซึ่งระบุความต้องการ AI ที่เป็นประโยชน์โดยละเอียดยิ่งขึ้น […]

AI ควรให้ประโยชน์ร่วมกันแก่ผู้คนจำนวนมากเท่าที่เป็นไปได้

AI ควรให้ประโยชน์ร่วมกันแก่ผู้คนจำนวนมากเท่าที่เป็นไปได้

AI ควรให้ประโยชน์ร่วมกันแก่ผู้คนจำนวนมากเท่าที่เป็นไปได้ jumbo jili หลักผลประโยชน์ร่วมกัน: เทคโนโลยี AI ควรให้ประโยชน์และส่งเสริมผู้คนให้มากที่สุดเท่าที่จะมากได้ทุกวันนี้ ความมั่งคั่งรวมกันของคนรวยที่สุดแปดคนในโลกนั้นมากกว่าความมั่งคั่งของประชากรครึ่งโลกที่ยากจนที่สุด นั่นคือ 8 คนมีความมั่งคั่งรวมกันมากกว่า3,600,000,000คน สล็อต นี่เป็นตัวอย่างที่รุนแรงของความไม่เท่าเทียมกันของรายได้แล้ว แต่ถ้าเราไม่เตรียมตัวอย่างเหมาะสมสำหรับปัญญาประดิษฐ์ สถานการณ์อาจเลวร้ายลงได้ นอกจากผลประโยชน์ทางเศรษฐกิจที่เห็นได้ชัดซึ่งจะเกิดขึ้นกับใครก็ตามที่ออกแบบ AI ขั้นสูงก่อน ผู้ที่ได้กำไรจาก AI ก็มีแนวโน้มที่จะได้รับ: การเข้าถึงการดูแลสุขภาพที่ดีขึ้น มีความสุขและอายุยืนยาวขึ้น โอกาสมากขึ้นสำหรับบุตรหลานของตน การพัฒนาสติปัญญารูปแบบต่างๆ และ เร็ว ๆ นี้.การเปลี่ยนแปลงทางวัฒนธรรมแนวทางด้านเทคโนโลยีของเราจนถึงตอนนี้คือ ใครก็ตามที่ออกแบบก่อน จะเป็นผู้ชนะ และพวกเขาก็ชนะรางวัลใหญ่ นอกเหนือจากความมั่งคั่งมหาศาลที่นักประดิษฐ์สามารถได้รับแล้ว ผู้สร้างเทคโนโลยีใหม่ยังถือว่าควบคุมผลิตภัณฑ์และการจัดจำหน่ายได้อย่างสมบูรณ์ ซึ่งหมายความว่าสิ่งประดิษฐ์หรืออัลกอริทึมจะเป็นประโยชน์ต่อผู้ที่ผู้สร้างต้องการให้ได้รับประโยชน์เท่านั้น แม้ว่าวิธีการนี้อาจใช้ได้ผลกับสิ่งประดิษฐ์ก่อนหน้านี้ แต่หลายคนกังวลว่า AI ขั้นสูงจะทรงพลังมากจนเราไม่สามารถปฏิบัติต่อมันเหมือนปกติในธุรกิจได้จะเกิดอะไรขึ้นถ้าเราสามารถมั่นใจได้ว่าในขณะที่ AI ได้รับการพัฒนา เราทุกคนจะได้รับประโยชน์ เราสามารถตัดสินใจร่วมกันและตัดสินใจล่วงหน้าเพื่อใช้ AI […]

หลักการ AI ของ ASILOMAR

หลักการ AI ของ ASILOMAR

หลักการ AI ของ ASILOMAR jumbo jili ปัญญาประดิษฐ์ (AI) ได้ให้แอปพลิเคชั่นที่มีประโยชน์แก่เราซึ่งผู้คนทั่วโลกต้องการทุกวัน การพัฒนาเพิ่มเติมอย่างต่อเนื่องของพวกเขา ตามหลักการที่อธิบายไว้ที่นี่ จะมอบโอกาสอันน่าทึ่งให้กับผู้คนในการช่วยเหลือตนเองและปรับปรุงในทศวรรษและศตวรรษต่อ ๆ ไป สล็อต หัวข้อวิจัย1) เป้าหมายการวิจัย :เป้าหมายของการวิจัย AI ควรสร้างปัญญาที่มีประโยชน์และมีเมตตามากกว่าปัญญาที่ไม่มีทิศทาง2) กองทุนวิจัย:การลงทุนใน AI ควรเป็นประโยชน์ต่อการวิจัยที่ช่วยให้มั่นใจว่านำไปใช้เพื่อการกุศล ซึ่งรวมถึงการพิจารณาคำถามที่ยากในสาขาวิทยาการคอมพิวเตอร์ เศรษฐศาสตร์ กฎหมาย จริยธรรม และสังคมศาสตร์:เราจะรักษาเสถียรภาพของระบบ AI ในอนาคตเพื่อให้พวกเขาทำในสิ่งที่เราต้องการโดยที่ระบบไม่ทำงานผิดปกติหรือถูกแฮ็กได้อย่างไรเราจะเพิ่มความเจริญรุ่งเรืองของเราด้วยระบบอัตโนมัติในขณะที่รักษาชะตากรรมของมนุษย์และปกป้องทรัพยากรได้อย่างไรเราจะทำให้ระบบกฎหมายของเรายุติธรรมและมีประสิทธิภาพมากขึ้นเพื่อให้ทันกับการพัฒนา AI และรับความเสี่ยงที่เหมาะสมได้อย่างไรAI ควรติดตั้งระบบคุณค่าแบบใด และสถานะทางกฎหมายและจริยธรรมของ AI ควรเป็นอย่างไร?3) การ เชื่อมโยงวิทยาศาสตร์กับการเมือง:ควรมีการแลกเปลี่ยนที่สร้างสรรค์และดีต่อสุขภาพระหว่างนักวิจัย AI และผู้มีอำนาจตัดสินใจ4) วัฒนธรรมการวิจัย :ควรปลูกฝังวัฒนธรรมความร่วมมือ ความไว้วางใจ และความโปร่งใสระหว่างนักวิจัยและนักพัฒนา AI5) […]

มีการแลกเปลี่ยนระหว่างความพยายามด้านความปลอดภัยของ AI ในทันทีและระยะยาวหรือไม่?

มีการแลกเปลี่ยนระหว่างความพยายามด้านความปลอดภัยของ AI ในทันทีและระยะยาวหรือไม่?

มีการแลกเปลี่ยนระหว่างความพยายามด้านความปลอดภัยของ AI ในทันทีและระยะยาวหรือไม่? jumbo jili สิ่งที่ฉันมักจะ ได้ยินในชุมชนการเรียนรู้ของเครื่องและบทความสื่อคือ “ความกังวลเกี่ยวกับความฉลาดหลักแหลมคือการเบี่ยงเบนความสนใจจากปัญหา * จริง * X ที่เรากำลังเผชิญอยู่ในปัจจุบันด้วย AI” (โดยที่ X = อคติของอัลกอริทึม การว่างงานทางเทคโนโลยี การตีความได้ ความเป็นส่วนตัวของข้อมูล เป็นต้น) ทัศนคติเชิงแข่งขันนี้ทำให้รู้สึกว่าข้อกังวลด้านความปลอดภัยในทันทีและระยะยาวมีความขัดแย้งกัน แต่มีข้อแลกเปลี่ยนระหว่างพวกเขาจริงๆหรือ? สล็อต เราสามารถทำให้คำถามนี้เฉพาะเจาะจงมากขึ้นได้: ความพยายามทั้งสองประเภทนี้จะแข่งขันกันเพื่อแย่งชิงทรัพยากรใดความสนใจของสื่อ ด้วยความสนใจของสื่อใน AI อย่างมากมาย จึงมีบทความมากมายเกี่ยวกับประเด็นเหล่านี้ บทความเกี่ยวกับความปลอดภัยขั้นสูงของ AI ส่วนใหญ่เป็นชิ้นส่วนที่ตื่นตระหนกกับเทอร์มิเนเตอร์ซึ่งไม่สนใจความซับซ้อนของปัญหา สิ่งนี้สร้างความรำคาญให้กับนักวิจัย AI หลายคน และทำให้พวกเขาบางคนละเลยความเสี่ยงเหล่านี้โดยพิจารณาจากภาพล้อเลียนที่นำเสนอในสื่อแทนที่จะเป็นข้อโต้แย้งที่แท้จริง ผลกระทบโดยรวมของความสนใจของสื่อที่มีต่อความเสี่ยงด้าน AI ขั้นสูงนั้นเป็นไปในทางลบอย่างมาก ฉันจะมีความสุขมากถ้าสื่อหยุดเขียนเกี่ยวกับ superintelligence โดยสิ้นเชิงและมุ่งเน้นไปที่คำถามด้านความปลอดภัยและจริยธรรมเกี่ยวกับระบบ AI […]

ความก้าวหน้าและความท้าทายด้าน AI อันดับต้นๆ ของปี 2017 กับ Richard Mallah และ Chelsea Finn

ความก้าวหน้าและความท้าทายด้าน AI อันดับต้นๆ ของปี 2017 กับ Richard Mallah และ Chelsea Finn

ความก้าวหน้าและความท้าทายด้าน AI อันดับต้นๆ ของปี 2017 กับ Richard Mallah และ Chelsea Finn jumbo jili AlphaZero, ความคืบหน้าในการเรียนรู้เมตา, บทบาทของ AI ในข่าวปลอม, ความยากลำบากในการพัฒนาแมชชีนเลิร์นนิงอย่างยุติธรรม — ปี 2017 เป็นอีกปีแห่งการค้นพบครั้งยิ่งใหญ่และความท้าทายครั้งใหญ่สำหรับนักวิจัย AI!เพื่อพูดคุยเรื่องนี้มากขึ้น เราได้เชิญ Richard Mallah จาก FLI และ Chelsea Finn จาก UC Berkeley ให้เข้าร่วมกับ Ariel สำหรับพอดคาสต์ของเดือนนี้ พวกเขาพูดถึงความก้าวหน้าทางเทคนิคบางอย่างที่พวกเขาตื่นเต้นที่สุดที่จะได้เห็นและสิ่งที่พวกเขาตั้งตารอในปีหน้า สล็อต เอเรียล:ฉันชื่อเอเรียล คอนน์ สถาบันอนาคตแห่งชีวิต ในปี 2560 […]

AI ที่โปร่งใสและตีความได้: บทสัมภาษณ์กับ Percy Liang

AI ที่โปร่งใสและตีความได้: บทสัมภาษณ์กับ Percy Liang

AI ที่โปร่งใสและตีความได้: บทสัมภาษณ์กับ Percy Liang jumbo jili ณ สิ้นปี 2560 สภาผู้แทนราษฎรแห่งสหรัฐอเมริกาได้ผ่านร่างกฎหมายที่เรียกว่าพระราชบัญญัติการขับขี่ด้วยตนเอง (SELF DRIVE Act) โดยกำหนดกรอบการทำงานเบื้องต้นของรัฐบาลกลางสำหรับการควบคุมรถยนต์ที่เป็นอิสระ รถยนต์ขับเคลื่อนอัตโนมัติได้รับการทดสอบบนถนนสาธารณะมาเกือบสองทศวรรษแล้ว เมื่อผ่านร่างกฎหมายนี้ไปพร้อมกับประโยชน์ด้านความปลอดภัยที่เพิ่มขึ้นของรถยนต์ไร้คนขับ มีแนวโน้มว่าสิ่งเหล่านี้จะแพร่หลายมากขึ้นในชีวิตประจำวันของเรา สิ่งนี้เป็นจริงสำหรับเทคโนโลยีที่เป็นอิสระมากมาย รวมถึงเทคโนโลยีทางการแพทย์ กฎหมาย และความปลอดภัย เป็นต้น สล็อต ด้วยเหตุนี้ นักวิจัย นักพัฒนา และผู้ใช้จะต้องสามารถมั่นใจในเทคโนโลยีประเภทนี้ที่อาศัยปัญญาประดิษฐ์ (AI) เป็นอย่างมาก สิ่งนี้ครอบคลุมมากกว่ารถยนต์ไร้คนขับ โดยนำไปใช้กับทุกอย่างตั้งแต่อุปกรณ์รักษาความปลอดภัยในบ้านอัจฉริยะไปจนถึงผู้ช่วยส่วนตัวในโทรศัพท์ของคุณการคาดการณ์ในการเรียนรู้ของเครื่องPercy Liang ผู้ช่วยศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่งมหาวิทยาลัยสแตนฟอร์ด อธิบายว่ามนุษย์อาศัยความสามารถในการคาดการณ์ในระดับหนึ่งในการโต้ตอบแบบวันต่อวัน ทั้งกับมนุษย์อื่นๆ และระบบอัตโนมัติ (รวมถึงแต่ไม่จำกัดเฉพาะรถยนต์ของพวกเขา) วิธีหนึ่งในการสร้างความสามารถในการคาดการณ์คือการใช้ประโยชน์จากแมชชีนเลิร์นนิงแมชชีนเลิร์นนิงเกี่ยวข้องกับอัลกอริธึมที่อนุญาตให้ AI “เรียนรู้” ตามข้อมูลที่รวบรวมจากประสบการณ์ครั้งก่อน นักพัฒนาไม่จำเป็นต้องเขียนโค้ดที่กำหนดทุกการกระทำหรือความตั้งใจของ AI แต่ระบบจะรับรู้รูปแบบจากประสบการณ์และดำเนินการตามความเหมาะสมตามข้อมูลนั้น […]

เพิ่มประสิทธิภาพการวิจัยความปลอดภัยของ AI: บทสัมภาษณ์กับ Owen Cotton-Barratt

เพิ่มประสิทธิภาพการวิจัยความปลอดภัยของ AI: บทสัมภาษณ์กับ Owen Cotton-Barratt

เพิ่มประสิทธิภาพการวิจัยความปลอดภัยของ AI: บทสัมภาษณ์กับ Owen Cotton-Barratt jumbo jili ปัญญาประดิษฐ์ก่อให้เกิดความเสี่ยงมากมายต่อมนุษยชาติ ตั้งแต่ข้อกังวลเรื่องความเป็นส่วนตัว ไปจนถึงอคติแบบอัลกอริทึมและการตัดสินใจแบบ “กล่องดำ” ไปจนถึงคำถามที่กว้างขึ้นเกี่ยวกับการจัดตำแหน่งคุณค่า การพัฒนาตนเองแบบเรียกซ้ำ และความเสี่ยงจากการดำรงอยู่จากความฉลาดหลักแหลม ไม่มีปัญหาด้านความปลอดภัยของ AI สล็อต การวิจัยด้านความปลอดภัยของ AI มีเป้าหมายเพื่อแก้ไขปัญหาเหล่านี้ทั้งหมด แต่ด้วยเงินทุนที่จำกัดและนักวิจัยน้อยเกินไป การแลกเปลี่ยนในการวิจัยจึงหลีกเลี่ยงไม่ได้ เพื่อให้แน่ใจว่าชุมชนความปลอดภัยของ AI สามารถจัดการกับคำถามที่สำคัญที่สุด นักวิจัยต้องจัดลำดับความสำคัญของสาเหตุOwen Cotton-Barratt พร้อมด้วยเพื่อนร่วมงานของเขาที่ Future of Humanity Institute (FHI) และ Center for Effective Altruism (CEA) พิจารณาถึง ‘สาเหตุการจัดลำดับความสำคัญ’ สำหรับชุมชนความปลอดภัยของ AI พวกเขาวิเคราะห์ว่าโครงการใดมีแนวโน้มที่จะช่วยลดความเสี่ยงจากภัยพิบัติหรือการมีอยู่จริงจากระบบ AI […]

วิธีเตรียมตัวสำหรับการใช้ AI ที่เป็นอันตราย

วิธีเตรียมตัวสำหรับการใช้ AI ที่เป็นอันตราย

วิธีเตรียมตัวสำหรับการใช้ AI ที่เป็นอันตราย jumbo jili เราจะคาดการณ์ ป้องกัน และ (เมื่อจำเป็น) บรรเทาผลกระทบที่เป็นอันตรายจากการใช้ AI ที่เป็นอันตรายได้อย่างไรนี่เป็นคำถามจากรายงาน 100 หน้าที่เผยแพร่เมื่อสัปดาห์ที่แล้ว ซึ่งเขียนโดยผู้เขียน 26 คนจาก 14 สถาบัน รายงานซึ่งเป็นผลมาจากการประชุมเชิงปฏิบัติการ 2 วันในเมืองอ็อกซ์ฟอร์ด ประเทศอังกฤษ ตามด้วยการวิจัยเป็นเวลาหลายเดือน ให้ภาพรวมที่ครอบคลุมถึงผลกระทบด้านความปลอดภัยของปัญญาประดิษฐ์ สล็อต ผู้เขียนซึ่งรวมถึงตัวแทนจาก Future of Humanity Institute, Center for the Study of Existential Risk, OpenAI และ Center for a New American […]

พอดคาสต์: AI และปัญหาการจัดตำแหน่งคุณค่ากับ Meia Chita-Tegmark และ Lucas Perry

พอดคาสต์: AI และปัญหาการจัดตำแหน่งคุณค่ากับ Meia Chita-Tegmark และ Lucas Perry

พอดคาสต์: AI และปัญหาการจัดตำแหน่งคุณค่ากับ Meia Chita-Tegmark และ Lucas Perry jumbo jili การสร้างปัญญาประดิษฐ์ที่เป็นประโยชน์หมายความว่าอย่างไร เราจะคาดหวังให้ AI สอดคล้องกับค่านิยมของมนุษย์ได้อย่างไร หากมนุษย์ไม่เห็นด้วยกับสิ่งที่เราให้ความสำคัญ การสร้าง AI ที่ปลอดภัยและเป็นประโยชน์นั้นเกี่ยวข้องกับปัญหาการวิจัยทางเทคนิคที่ยุ่งยาก แต่ก็ต้องการข้อมูลจากนักปรัชญา นักจริยธรรม และนักจิตวิทยาเกี่ยวกับคำถามพื้นฐานเหล่านี้ด้วย เราจะมั่นใจได้อย่างไรว่าการทำงานร่วมกันอย่างมีประสิทธิภาพสูงสุด? สล็อต Ariel พูดคุยกับ Meia Chita-Tegmark และ Lucas Perry จาก FLI ในพอดคาสต์ของเดือนนี้เกี่ยวกับ ปัญหาการจัดตำแหน่งคุณค่า : ความท้าทายในการปรับเป้าหมายและการดำเนินการของระบบ AI ให้สอดคล้องกับเป้าหมายและความตั้งใจของมนุษย์Ariel: ฉันชื่อ Ariel Conn กับ Future of Life […]

AI จัดการกับความไม่แน่นอนอย่างไร: บทสัมภาษณ์กับ Brian Ziebart

AI จัดการกับความไม่แน่นอนอย่างไร: บทสัมภาษณ์กับ Brian Ziebart

AI จัดการกับความไม่แน่นอนอย่างไร: บทสัมภาษณ์กับ Brian Ziebart jumbo jili เมื่อฝึกเครื่องตรวจจับภาพ นักวิจัย AI ไม่สามารถจำลองโลกแห่งความเป็นจริงได้ พวกเขาสอนระบบว่าคาดหวังอะไรจากการป้อนข้อมูลการฝึกอบรม เช่น ภาพถ่าย รูปภาพที่สร้างด้วยคอมพิวเตอร์ วิดีโอจริง และวิดีโอจำลอง แต่สภาพแวดล้อมการปฏิบัติเหล่านี้ไม่สามารถจับภาพความยุ่งเหยิงของโลกทางกายภาพได้ สล็อต ในแมชชีนเลิร์นนิง (ML) ตัวตรวจจับภาพจะเรียนรู้ที่จะระบุวัตถุโดยวาดกรอบล้อมรอบและให้ป้ายกำกับ และในขณะที่กระบวนการฝึกอบรมนี้ประสบความสำเร็จในสภาพแวดล้อมที่เรียบง่าย แต่ก็ซับซ้อนอย่างรวดเร็วการกำหนดบุคคลทางซ้ายเป็นเรื่องง่าย แต่คุณจะวาดกรอบล้อมรอบบุคคลทางด้านขวาได้อย่างไร คุณจะรวมเฉพาะส่วนที่มองเห็นได้ของร่างกายของเขา หรือรวมถึงลำตัวและขาที่ซ่อนอยู่ด้วยหรือไม่ ความแตกต่างเหล่านี้อาจดูเหมือนเล็กน้อย แต่ชี้ให้เห็นถึงปัญหาพื้นฐานในการจดจำวัตถุ: แทบจะไม่มีวิธีที่ดีที่สุดวิธีเดียวในการกำหนดวัตถุจากภาพที่ 2 นี้แสดงให้เห็น โลกแห่งความเป็นจริงนั้นไม่ค่อยมีความชัดเจน และคำตอบที่ “ถูกต้อง” มักจะคลุมเครือ แต่เมื่อระบบ ML ใช้ข้อมูลการฝึกอบรมเพื่อพัฒนาความเข้าใจในโลก พวกเขามักจะล้มเหลวในการสะท้อนสิ่งนี้ แทนที่จะตระหนักถึงความไม่แน่นอนและความกำกวม ระบบเหล่านี้มักจะเข้าหาสถานการณ์ใหม่อย่างมั่นใจไม่แตกต่างไปจากข้อมูลการฝึกอบรม ซึ่งอาจทำให้ระบบและมนุษย์ตกอยู่ในความเสี่ยงBrian Ziebart ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่งมหาวิทยาลัยอิลลินอยส์ […]