Tag: Dylan
AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันและการอนุมานความชอบของมนุษย์ด้วย Dylan Hadfield-Menell
AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันและการอนุมานความชอบของมนุษย์ด้วย Dylan Hadfield-Menell jumbo jili Inverse Reinforcement Learning and Inferring Human Preferences เป็นพอดคาสต์แรกในชุด AI Alignment ใหม่ ซึ่งจัดโดย Lucas Perry ชุดนี้จะครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง เราจะหารือกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในหลากหลายด้าน เช่น การเรียนรู้ของเครื่อง ความปลอดภัยของ AI การกำกับดูแล การประสานงาน จริยธรรม ปรัชญา และจิตวิทยา ที่เกี่ยวข้องกับโครงการสร้าง AI ที่เป็นประโยชน์ หากฟังดูน่าสนใจสำหรับคุณ เราหวังว่าคุณจะเข้าร่วมการสนทนาโดยติดตามหรือสมัครรับข้อมูลจาก Youtube, Soundcloud […]
AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell (Beneficial AGI 2019)
AI Alignment Podcast: การเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell (Beneficial AGI 2019) jumbo jili อะไรเป็นแรงจูงใจในการเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วม? เราได้อะไรจากการปรับบริบทความพยายามด้านความปลอดภัยของเราใหม่จากมุมมองของ CIRL ระบบ Pre-AGI มีบทบาทใดในการขยายกระบวนการเชิงบรรทัดฐานการเรียนรู้การเสริมแรงผกผันแบบมีส่วนร่วมกับ Dylan Hadfield-Menell เป็นพอดคาสต์ที่แปดในชุด AI Alignment Podcast ซึ่งจัดโดย Lucas Perry และได้รับการบันทึกไว้ในการประชุม Beneficial AGI 2018 ในเปอร์โตริโก สำหรับผู้ที่ยังใหม่ ชุดนี้ครอบคลุมและสำรวจปัญหาการจัดตำแหน่ง AI ในโดเมนที่หลากหลาย ซึ่งสะท้อนถึงลักษณะสหวิทยาการพื้นฐานของการจัดตำแหน่ง AI ในวงกว้าง ลูคัสจะพูดคุยกับนักวิจัยด้านเทคนิคและที่ไม่ใช่ด้านเทคนิคในด้านต่างๆ เช่น แมชชีนเลิร์นนิง ธรรมาภิบาล จริยธรรม ปรัชญา และจิตวิทยาที่เกี่ยวข้องกับโครงการสร้าง […]