Get in my Think Art.

Month: September 2021

พอดคาสต์: การนำทางด้านความปลอดภัยของ AI – จากการใช้งานที่เป็นอันตรายไปจนถึงอุบัติเหตุ

พอดคาสต์: การนำทางด้านความปลอดภัยของ AI – จากการใช้งานที่เป็นอันตรายไปจนถึงอุบัติเหตุ

พอดคาสต์: การนำทางด้านความปลอดภัยของ AI – จากการใช้งานที่เป็นอันตรายไปจนถึงอุบัติเหตุ jumbo jili การใช้ปัญญาประดิษฐ์อย่างมุ่งร้ายเป็นสิ่งที่หลีกเลี่ยงไม่ได้หรือไม่? หากประวัติศาสตร์ของความก้าวหน้าทางเทคโนโลยีได้สอนอะไรเรา แสดงว่าความก้าวหน้าทางเทคโนโลยีที่ “เป็นประโยชน์” ทุกครั้งสามารถนำมาใช้เพื่อก่อให้เกิดอันตรายได้ เราจะป้องกันไม่ให้นักแสดงที่ไม่ดีใช้เทคโนโลยี AI ที่เป็นประโยชน์อย่างอื่นเพื่อทำร้ายผู้อื่นได้อย่างไร เราจะมั่นใจได้อย่างไรว่าเทคโนโลยี AI ได้รับการออกแบบมาอย่างรอบคอบเพื่อป้องกันอันตรายจากอุบัติเหตุหรือการใช้ในทางที่ผิด สล็อต ในพอดคาสต์ของเดือนนี้ Ariel ได้พูดคุยกับ Victoria Krakovna ผู้ร่วมก่อตั้ง FLI และ Shahar Avin จาก Center for the Study of Existential Risk (CSER) พวกเขาพูดถึงรายงานล่าสุดของ CSER เกี่ยวกับการคาดการณ์ การป้องกัน และการลดการใช้ AI ที่เป็นอันตราย […]

นักวิจัย AI และหุ่นยนต์คว่ำบาตรสถาบันเทคโนโลยีเกาหลีใต้เรื่องการพัฒนาเทคโนโลยีอาวุธ AI

นักวิจัย AI และหุ่นยนต์คว่ำบาตรสถาบันเทคโนโลยีเกาหลีใต้เรื่องการพัฒนาเทคโนโลยีอาวุธ AI

นักวิจัย AI และหุ่นยนต์คว่ำบาตรสถาบันเทคโนโลยีเกาหลีใต้เรื่องการพัฒนาเทคโนโลยีอาวุธ AI jumbo jili “นักวิจัยด้านปัญญาประดิษฐ์และหุ่นยนต์ชั้นนำของโลกมากกว่า 50 คนจาก 30 ประเทศต่างประกาศยุติการคว่ำบาตรสถาบันวิทยาศาสตร์และเทคโนโลยีขั้นสูงแห่งเกาหลี (KAIST) ซึ่งเป็นมหาวิทยาลัยชั้นนำของเกาหลีใต้ ห้องปฏิบัติการอาวุธ AI ร่วมกับ Hanwha Systems บริษัทอาวุธรายใหญ่“ในการเปิดห้องปฏิบัติการใหม่ ศูนย์วิจัยเพื่อการบรรจบกันของการป้องกันประเทศและปัญญาประดิษฐ์ มีรายงานว่า KAIST กำลัง “เข้าร่วมการแข่งขันระดับโลกเพื่อพัฒนาอาวุธอิสระ” โดยการพัฒนาอาวุธ “ซึ่งจะค้นหาและกำจัดเป้าหมายโดยปราศจาก การควบคุมของมนุษย์” สาเหตุที่น่ากังวลเพิ่มเติมคือ Hanwha Systems ซึ่งเป็นพันธมิตรในอุตสาหกรรมของ KAIST สร้างอาวุธยุทโธปกรณ์แบบคลัสเตอร์ แม้ว่าจะมีการสั่งห้ามของสหประชาชาติ เช่นเดียวกับอาวุธอัตโนมัติอย่าง SGR-A1 Sentry Robot ในปี 2551 นอร์เวย์ได้กีดกัน Hanwha จากกองทุนในอนาคตมูลค่า 380 พันล้านดอลลาร์โดยมีเหตุผลทางจริยธรรม […]

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันและการอนุมานความชอบของมนุษย์ด้วย Dylan Hadfield-Menell

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันและการอนุมานความชอบของมนุษย์ด้วย Dylan Hadfield-Menell

AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันและการอนุมานความชอบของมนุษย์ด้วย Dylan Hadfield-Menell jumbo jili Inverse Reinforcement Learning and Inferring Human Preferences เป็นพอดคาสต์แรกในชุด AI Alignment ใหม่ ซึ่งจัดโดย Lucas Perry ชุดนี้จะครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง เราจะหารือกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในหลากหลายด้าน เช่น การเรียนรู้ของเครื่อง ความปลอดภัยของ AI การกำกับดูแล การประสานงาน จริยธรรม ปรัชญา และจิตวิทยา ที่เกี่ยวข้องกับโครงการสร้าง AI ที่เป็นประโยชน์ หากฟังดูน่าสนใจสำหรับคุณ เราหวังว่าคุณจะเข้าร่วมการสนทนาโดยติดตามหรือสมัครรับข้อมูลจาก Youtube, Soundcloud […]

การสอนนักเรียน AI ในปัจจุบันให้เป็นผู้นำที่มีจริยธรรมในวันพรุ่งนี้: บทสัมภาษณ์กับ Yan Zhang

การสอนนักเรียน AI ในปัจจุบันให้เป็นผู้นำที่มีจริยธรรมในวันพรุ่งนี้: บทสัมภาษณ์กับ Yan Zhang

การสอนนักเรียน AI ในปัจจุบันให้เป็นผู้นำที่มีจริยธรรมในวันพรุ่งนี้: บทสัมภาษณ์กับ Yan Zhang jumbo jili นักวิทยาศาสตร์และนักประดิษฐ์ที่ยิ่งใหญ่ที่สุดบางคนกำลังนั่งอยู่ในห้องเรียนของโรงเรียนมัธยมศึกษาตอนปลายในขณะนี้ หายใจคล่องผ่านแคลคูลัสและรอคอยปีแรกที่มหาวิทยาลัยชั้นนำของโลกอย่างใจจดใจจ่อ พวกเขาอาจชนะการแข่งขันคณิตศาสตร์โอลิมปิกหรือคิดค้นแอปพลิเคชั่นอินเทอร์เน็ตใหม่ที่ชาญฉลาด เรารู้ว่านักเรียนเหล่านี้ฉลาด แต่พวกเขาพร้อมที่จะชี้นำอนาคตของเทคโนโลยีอย่างมีความรับผิดชอบหรือไม่ สล็อต การพัฒนาเทคโนโลยีที่ปลอดภัยและเป็นประโยชน์นั้นต้องการมากกว่าความเชี่ยวชาญด้านเทคนิค — จำเป็นต้องมีการศึกษาที่รอบรู้และความสามารถในการเข้าใจมุมมองอื่นๆ แต่เนื่องจากนักศึกษาวิชาคณิตศาสตร์และวิทยาศาสตร์ต้องใช้เวลามากในการทำงานด้านเทคนิค พวกเขาจึงมักขาดทักษะและประสบการณ์ที่จำเป็นในการทำความเข้าใจว่าสิ่งประดิษฐ์ของพวกเขาจะส่งผลต่อสังคมอย่างไรช่องว่างทางการศึกษาเหล่านี้สามารถพิสูจน์ได้ว่าเป็นปัญหาเนื่องจากปัญญาประดิษฐ์มีบทบาทมากขึ้นในชีวิตของเรา การวิจัย AI กำลังเฟื่องฟูในหมู่นักวิทยาศาสตร์คอมพิวเตอร์รุ่นใหม่ และนักเรียนเหล่านี้จำเป็นต้องเข้าใจความท้าทายด้านจริยธรรม การกำกับดูแล และความปลอดภัยที่ซับซ้อนซึ่งเกิดจากนวัตกรรมของพวกเขาสปาร์กในปี 2012 กลุ่มนักวิจัย AI และผู้สนับสนุนด้านความปลอดภัย ได้แก่ Paul Christiano, Jacob Steinhardt, Andrew Critch, Anna Salamon และ Yan Zhang ได้สร้างโครงการภาคฤดูร้อนใน Applied Rational and […]

ความปลอดภัยของ AI: การวัดและหลีกเลี่ยงผลข้างเคียงโดยใช้ความสามารถในการเข้าถึงแบบสัมพัทธ์

ความปลอดภัยของ AI: การวัดและหลีกเลี่ยงผลข้างเคียงโดยใช้ความสามารถในการเข้าถึงแบบสัมพัทธ์

ความปลอดภัยของ AI: การวัดและหลีกเลี่ยงผลข้างเคียงโดยใช้ความสามารถในการเข้าถึงแบบสัมพัทธ์ jumbo jili ความท้าทายที่สำคัญในความปลอดภัยของ AI คือการระบุความชอบของมนุษย์ต่อระบบ AI ได้อย่างน่าเชื่อถือ ข้อกำหนดที่ไม่ถูกต้องหรือไม่สมบูรณ์ของวัตถุประสงค์สามารถส่งผลให้เกิดพฤติกรรมที่ไม่พึงประสงค์เช่น สเปคการเล่นเกม หรือก่อให้เกิด ผลกระทบด้านลบ มีหลายวิธีที่จะทำให้แนวคิดของ “ผลข้างเคียง” แม่นยำยิ่งขึ้น – ฉันคิดว่ามันเป็นการหยุดชะงักของสภาพแวดล้อมของตัวแทนซึ่งไม่จำเป็นสำหรับการบรรลุวัตถุประสงค์ ตัวอย่างเช่น ถ้าหุ่นยนต์ถือกล่องและชนแจกันในทางของมัน การทำลายแจกันเป็นผลข้างเคียง เนื่องจากหุ่นยนต์สามารถไปรอบๆ แจกันได้อย่างง่ายดาย ในทางกลับกัน หุ่นยนต์ทำอาหารที่ทำไข่เจียวต้องทำลายไข่ ดังนั้นการแตกไข่จึงไม่ใช่ผลข้างเคียง สล็อต เราจะวัดผลข้างเคียงในลักษณะทั่วไปที่ไม่ได้ปรับให้เข้ากับสภาพแวดล้อมหรืองานเฉพาะ และสร้างแรงจูงใจให้ตัวแทนหลีกเลี่ยงได้อย่างไร นี่คือคำถามกลางของเรากระดาษที่ผ่านมาส่วนหนึ่งของความท้าทายคือ ง่ายที่จะแนะนำสิ่งจูงใจที่ไม่ดีสำหรับตัวแทนเมื่อพยายามลงโทษผลข้างเคียง งานก่อนหน้านี้เกี่ยวกับปัญหานี้มุ่งเน้นไปที่การรักษาความสามารถในการย้อนกลับได้หรือการลดผลกระทบของตัวแทนต่อสิ่งแวดล้อม และทั้งสองแนวทางนี้นำเสนอสิ่งจูงใจที่เป็นปัญหาประเภทต่างๆ:การรักษาความสามารถในการย้อนกลับได้ (เช่น การรักษาสถานะเริ่มต้นให้เข้าถึงได้) ส่งเสริมให้ตัวแทนป้องกันเหตุการณ์ที่ไม่สามารถย้อนกลับได้ในสิ่งแวดล้อม (เช่น มนุษย์กินอาหาร) นอกจากนี้ หากวัตถุประสงค์ต้องการการกระทำที่ไม่สามารถย้อนกลับได้ (เช่น การทำลายไข่สำหรับไข่เจียว) การกระทำที่ไม่สามารถย้อนกลับได้อีกจะไม่ถูกลงโทษ เนื่องจากการย้อนกลับได้สูญหายไปแล้วการลงโทษผลกระทบ […]

สรุปปัญหาที่เป็นรูปธรรมในความปลอดภัยของ AI

สรุปปัญหาที่เป็นรูปธรรมในความปลอดภัยของ AI

สรุปปัญหาที่เป็นรูปธรรมในความปลอดภัยของ AI jumbo jili เกือบสองปีแล้วที่นักวิจัยจาก Google, Stanford, UC Berkeley และ OpenAI เผยแพร่บทความเรื่อง “Concrete Problems in AI Safety” แต่ก็ยังเป็นหนึ่งในส่วนที่สำคัญที่สุดในความปลอดภัยของ AI แม้จะผ่านไปสองปีแล้ว ก็ยังเป็นการแนะนำที่ดีถึงปัญหาบางอย่างที่นักวิจัยเผชิญในขณะที่พวกเขาพัฒนาปัญญาประดิษฐ์ ในบทความนี้ ผู้เขียนสำรวจปัญหาการเกิดอุบัติเหตุ— พฤติกรรมที่ไม่ได้ตั้งใจและเป็นอันตราย — ในระบบ AI และพวกเขาจะหารือเกี่ยวกับกลยุทธ์ที่แตกต่างกันและความพยายามในการวิจัยอย่างต่อเนื่องเพื่อป้องกันปัญหาที่อาจเกิดขึ้นเหล่านี้ โดยเฉพาะอย่างยิ่ง ผู้เขียนกล่าวถึง — การหลีกเลี่ยงผลข้างเคียงเชิงลบ, การแฮ็กรางวัล, การกำกับดูแลที่ปรับขนาดได้, การสำรวจอย่างปลอดภัย และความทนทานต่อการเปลี่ยนแปลงการกระจาย — ซึ่งแสดงให้เห็นด้วยตัวอย่างของหุ่นยนต์ที่ได้รับการฝึกฝนให้ทำความสะอาดสำนักงาน สล็อต เราทบทวน 5 หัวข้อนี้อีกครั้ง โดยสรุปจากบทความ เพื่อเป็นการเตือนว่าปัญหาเหล่านี้ยังคงเป็นประเด็นสำคัญที่นักวิจัย AI […]

พอดคาสต์: ภารกิจ AI – ให้เสียงทั่วโลกในการอภิปราย AI กับ Charlie Oliver และ Randi Williams

พอดคาสต์: ภารกิจ AI – ให้เสียงทั่วโลกในการอภิปราย AI กับ Charlie Oliver และ Randi Williams

พอดคาสต์: ภารกิจ AI – ให้เสียงทั่วโลกในการอภิปราย AI กับ Charlie Oliver และ Randi Williams jumbo jili เทคโนโลยีเกิดใหม่เช่นปัญญาประดิษฐ์สร้างโลกของเราอย่างไรและเราโต้ตอบกันอย่างไร ข้อมูลประชากรต่างๆ คิดอย่างไรเกี่ยวกับความเสี่ยงของ AI และอนาคตที่เต็มไปด้วยหุ่นยนต์ และพลเมืองทั่วไปจะมีส่วนร่วมในการอภิปรายเรื่อง AI ได้อย่างไร แต่ยังรวมถึงการพัฒนาของ AI ด้วย?ในพอดแคสต์ของเดือนนี้ Ariel ได้พูดคุยกับCharlie OliverและRandi Williamsว่าเทคโนโลยีกำลังเปลี่ยนแปลงโลกของเราอย่างไร และโครงการใหม่ของพวกเขาMission AIมีเป้าหมายที่จะขยายขอบเขตการสนทนาและรวมเสียงของทุกคนอย่างไร สล็อต ชาร์ลีเป็นผู้ก่อตั้งและซีอีโอของบริษัทกลยุทธ์ด้านสื่อดิจิทัล Served Fresh Media และเธอยังเป็นผู้ก่อตั้งTech 2025ซึ่งเป็นแพลตฟอร์มและชุมชนสำหรับให้ผู้คนได้เรียนรู้เกี่ยวกับเทคโนโลยีเกิดใหม่ และอภิปรายถึงผลกระทบของเทคโนโลยีที่เกิดขึ้นใหม่ในสังคม R andi เป็นนักศึกษาปริญญาเอกในกลุ่มPersonal Roboticsที่ MIT Media […]

นโยบาย AI ทั่วโลก

นโยบาย AI ทั่วโลก

นโยบาย AI ทั่วโลก jumbo jili วิธีการที่ประเทศและองค์กรต่างๆ ทั่วโลกเข้าถึงประโยชน์และความเสี่ยงของ AIปัญญาประดิษฐ์ (AI) ถือได้ว่าเป็นสัญญาที่ดีทางเศรษฐกิจ สังคม การแพทย์ ความมั่นคง และสิ่งแวดล้อม ระบบ AI ที่สามารถช่วยให้ผู้คนได้เรียนรู้ทักษะใหม่และการฝึกอบรม , บริการประชาธิปไตย , การออกแบบและส่งมอบได้เร็วขึ้นเวลาการผลิตและรวดเร็วซ้ำรอบลดการใช้พลังงานให้เวลาจริงตรวจสอบด้านสิ่งแวดล้อมมลพิษและคุณภาพอากาศเพิ่มศักยภาพในการป้องกันโลกไซเบอร์ , เพิ่มผลผลิตแห่งชาติ , ลด ความไร้ประสิทธิภาพด้านการดูแลสุขภาพสร้างประสบการณ์และปฏิสัมพันธ์ที่สนุกสนานรูปแบบใหม่ให้กับผู้คน และปรับปรุงบริการแปลภาษาแบบเรียลไทม์เพื่อเชื่อมโยงผู้คนทั่วโลก ด้วยเหตุผลทั้งหมดนี้ และนักวิจัยจำนวนมากขึ้นต่างตื่นเต้นกับการใช้ระบบ AI ที่มีศักยภาพเพื่อช่วยจัดการปัญหาที่ยากที่สุดในโลกบางส่วนและปรับปรุงชีวิตนับไม่ถ้วน สล็อต แต่เพื่อที่จะตระหนักถึงศักยภาพนี้ ความท้าทายที่เกี่ยวข้องกับการพัฒนา AI จะต้องได้รับการแก้ไข หน้านี้เน้นแหล่งข้อมูลเสริมสามแหล่งเพื่อช่วยผู้มีอำนาจตัดสินใจในการนำทางนโยบาย AI: ภูมิทัศน์ทั่วโลกของกลยุทธ์ AI ระดับชาติและระดับนานาชาติ รายการความท้าทายด้านนโยบาย AI ที่โดดเด่นและคำแนะนำที่สำคัญที่จัดทำขึ้นเพื่อแก้ไขปัญหา และรายการทรัพยากรนโยบาย […]

นโยบาย AI – ออสเตรเลีย

นโยบาย AI – ออสเตรเลีย

นโยบาย AI – ออสเตรเลีย jumbo jili นโยบาย AI ในออสเตรเลียมีข้อมูลสรุปภาพรวมของโครงการริเริ่มก่อนหน้านี้และที่กำลังดำเนินอยู่ทั่วประเทศ มีการปรับปรุงอย่างสม่ำเสมอตามที่เป็นไปได้ แต่ไม่ได้มีวัตถุประสงค์เพื่อให้ครอบคลุมณ เดือนกุมภาพันธ์ปี 2020 นอกจากนี้ยังมีข้อมูลที่ครอบคลุมข้อมูลและกราฟิกเกี่ยวกับนโยบายออสเตรเลีย AI บริการที่หอดูดาวของ OECD นโยบาย AI สล็อต รัฐบาลกลางได้จัดสรรเงินจำนวน 29.9 ล้านเหรียญสหรัฐในช่วงสี่ปีที่ผ่านมาเพื่อส่งเสริมความพยายามของออสเตรเลียในด้านปัญญาประดิษฐ์และการเรียนรู้ของเครื่องในงบประมาณปี 2018-19 ของประเทศ ส่วนหนึ่งของสิ่งที่รัฐบาลจะให้ทุน ได้แก่ การพัฒนากรอบจริยธรรม AI ระดับชาติ แผนงานด้านเทคโนโลยี และชุดมาตรฐาน ในปี 2019 องค์การวิจัยวิทยาศาสตร์และอุตสาหกรรมเครือจักรภพแห่งออสเตรเลีย (CSIRO) ได้ตีพิมพ์บทความอภิปรายเกี่ยวกับกรอบจริยธรรม AI ของออสเตรเลียและเปิดตัวการปรึกษาหารือสาธารณะAI และระบบอัตโนมัติได้รับการพิจารณาภายใต้ยุทธศาสตร์นวัตกรรมแห่งชาติแล้ว และยังนำเสนอในโครงการริเริ่มใหม่ๆ อีกหลายโครงการ ตัวอย่างเช่น กลุ่มรัฐสภาทุกพรรคของรัฐวิกตอเรียด้านปัญญาประดิษฐ์ ( […]

นโยบาย AI – ออสเตรีย

นโยบาย AI – ออสเตรีย

นโยบาย AI – ออสเตรีย jumbo jili นโยบาย AI ในออสเตรียให้ภาพรวมภาพรวมของการริเริ่มก่อนหน้านี้และที่กำลังดำเนินอยู่ทั่วประเทศ มีการปรับปรุงอย่างสม่ำเสมอตามที่เป็นไปได้ แต่ไม่ได้มีวัตถุประสงค์เพื่อให้ครอบคลุมณ เดือนกุมภาพันธ์ปี 2020 นอกจากนี้ยังมีข้อมูลที่ครอบคลุมข้อมูลและกราฟิกเกี่ยวกับนโยบายออสเตรีย AI บริการที่หอดูดาวของ OECD นโยบาย AI สล็อต ในเดือนตุลาคม 2018 รัฐบาลออสเตรียได้ออกภารกิจปัญญาประดิษฐ์ออสเตรีย 2030ซึ่งกำหนดขั้นตอนแรกสู่กลยุทธ์ระดับชาติ AI อย่างเป็นทางการ รายงานระบุประเด็นสำคัญเจ็ดด้าน: คุณสมบัติและการฝึกอบรม การวิจัยและนวัตกรรม AI ในระบบเศรษฐกิจ AI ในภาครัฐ สังคม จริยธรรม และตลาดแรงงาน การกำกับดูแล AI ความปลอดภัยและกฎหมาย และโครงสร้างพื้นฐานสำหรับตำแหน่งผู้นำในอุตสาหกรรม ออสเตรียยังมีสภาหุ่นยนต์และปัญญาประดิษฐ์ (ACRAI) ซึ่งจัดตั้งขึ้นโดยรัฐมนตรีว่าการกระทรวงคมนาคม นวัตกรรมและเทคโนโลยีแห่งสหพันธรัฐ เพื่อให้คำแนะนำแบบสหวิทยาการแก่รัฐบาลและช่วยให้สาธารณชนเข้าใจถึงการเปลี่ยนแปลงและความคาดหวังในสาขานี้ออสเตรียยังมีแผนงานดิจิทัลที่พัฒนาโดยกระทรวงกิจการดิจิทัลและเศรษฐกิจแห่งสหพันธรัฐ […]