Get in my Think Art.

ระบบ AI ที่ซับซ้อนอธิบายการกระทำของพวกเขา

ระบบ AI ที่ซับซ้อนอธิบายการกระทำของพวกเขา

ระบบ AI ที่ซับซ้อนอธิบายการกระทำของพวกเขา

jumbo jili

ในอนาคต หุ่นยนต์บริการที่ติดตั้งปัญญาประดิษฐ์ (AI) จะเป็นสิ่งที่พบเห็นได้ทั่วไป บอทเหล่านี้จะช่วยนำทางผู้คนในสนามบินที่มีผู้คนพลุกพล่าน เสิร์ฟอาหาร หรือแม้แต่กำหนดเวลาการประชุม
เนื่องจากระบบ AI เหล่านี้รวมเข้ากับชีวิตประจำวันมากขึ้น จึงจำเป็นต้องหาวิธีสื่อสารกับพวกเขาอย่างมีประสิทธิภาพ เป็นเรื่องปกติที่มนุษย์จะพูดภาษาธรรมดามากกว่าการใช้รหัส นอกจากนี้ เมื่อความสัมพันธ์ระหว่างมนุษย์กับหุ่นยนต์เติบโตขึ้น จำเป็นต้องมีส่วนร่วมในการสนทนา แทนที่จะเพียงแค่ออกคำสั่ง

สล็อต

ปฏิสัมพันธ์ระหว่างมนุษย์กับหุ่นยนต์เป็นสิ่งที่การวิจัยของ Manuela M. Veloso เป็นเรื่องเกี่ยวกับ Veloso ศาสตราจารย์แห่งมหาวิทยาลัย Carnegie Mellon ได้มุ่งเน้นการวิจัยของเธอเกี่ยวกับ CoBots หุ่นยนต์บริการเคลื่อนที่ในร่มแบบอัตโนมัติซึ่งขนส่งสิ่งของต่างๆ แนะนำผู้เยี่ยมชมสถานที่ก่อสร้าง และสำรวจห้องโถงและลิฟต์ หุ่นยนต์ CoBot ประสบความสำเร็จในการนำทางด้วยตนเองมาหลายปีแล้ว และได้เดินทางมากกว่า 1,000 กม. ความสำเร็จเหล่านี้ช่วยให้ทีมวิจัยสามารถดำเนินไปในทิศทางใหม่ โดยมุ่งเน้นไปที่ปฏิสัมพันธ์ระหว่างมนุษย์กับหุ่นยนต์
“ถ้าคุณต้องการให้หุ่นยนต์อิสระเหล่านี้อยู่ต่อหน้ามนุษย์และมีปฏิสัมพันธ์กับมนุษย์และสามารถเป็นประโยชน์ต่อมนุษย์ได้ พวกเขาจำเป็นต้องสามารถพูดคุยกับมนุษย์ได้” Veloso กล่าว
การสื่อสารกับ CoBots
CoBots ของ Veloso สามารถโลคัลไลเซชันและการนำทางอัตโนมัติใน Gates-Hillman Center โดยใช้ WiFi, LIDAR และ/หรือเซ็นเซอร์ Kinect (ใช่ ประเภทเดียวกับที่ใช้กับวิดีโอเกม)
หุ่นยนต์นำทางโดยการตรวจจับกำแพงเหมือนเครื่องบิน ซึ่งพวกมันจะจับคู่กับแผนที่ที่รู้จักของอาคาร วัตถุอื่นๆ รวมทั้งผู้คน จะถูกตรวจพบว่าเป็นอุปสรรค ดังนั้นการนำทางจึงปลอดภัยและมีประสิทธิภาพ โดยรวมแล้ว CoBots เป็นตัวนำทางที่ดีและมีความสม่ำเสมอในการเคลื่อนไหว อันที่จริง ทีมงานสังเกตเห็นว่าหุ่นยนต์สามารถสวมพรมขณะที่พวกเขาเดินทางในเส้นทางเดียวกันหลายครั้ง
เนื่องจากหุ่นยนต์ทำงานอัตโนมัติ และสามารถตัดสินใจได้ด้วยตัวเอง พวกมันจึงมองไม่เห็นเป็นเวลานานขณะนำทางในอาคารหลายชั้น
ทีมวิจัยเริ่มสงสัยเกี่ยวกับช่วงเวลาที่ไม่ได้กล่าวถึงนี้ หุ่นยนต์รับรู้สภาพแวดล้อมและบรรลุเป้าหมายได้อย่างไร การเดินทางเป็นอย่างไร? พวกเขาวางแผนที่จะทำอะไรต่อไป?
“ในอนาคต ฉันคิดว่าเราอาจต้องการค้นหาระบบเหล่านี้ทีละน้อยว่าทำไมพวกเขาถึงเลือก หรือทำไมพวกเขาถึงเสนอแนะ” Veloso อธิบาย
ทีมวิจัยกำลังทำงานเกี่ยวกับคำถามว่าเหตุใด CoBots จึงใช้เส้นทางที่พวกเขาทำในขณะที่เป็นอิสระ ทีมงานต้องการให้หุ่นยนต์สามารถบันทึกประสบการณ์ของพวกเขา แล้วแปลงข้อมูลเกี่ยวกับเส้นทางของพวกเขาให้เป็นภาษาที่เป็นธรรมชาติ ด้วยวิธีนี้ บอทสามารถสื่อสารกับมนุษย์และเปิดเผยตัวเลือกของพวกเขา และหวังว่าจะมีเหตุผลเบื้องหลังการตัดสินใจของพวกเขา
ระดับของคำอธิบาย
“ภายใน” ที่เป็นรากฐานของฟังก์ชันของหุ่นยนต์อิสระนั้นขึ้นอยู่กับการคำนวณเชิงตัวเลขโดยสมบูรณ์ ไม่ใช่ภาษาธรรมชาติ ตัวอย่างเช่น หุ่นยนต์ CoBot จะคำนวณระยะห่างจากผนังโดยเฉพาะ โดยกำหนดความเร็วให้กับมอเตอร์เพื่อให้สามารถเคลื่อนที่ไปยังพิกัดแผนที่เฉพาะได้
การถามหุ่นยนต์อิสระสำหรับคำอธิบายที่ไม่ใช่ตัวเลขนั้นซับซ้อน Veloso กล่าว นอกจากนี้ คำตอบยังสามารถให้รายละเอียดได้หลายระดับ
“เรากำหนดสิ่งที่เราเรียกว่า ‘พื้นที่การใช้คำพูด’ ซึ่งการแปลเป็นภาษานี้สามารถเกิดขึ้นได้โดยมีรายละเอียดในระดับต่างๆ กับระดับท้องถิ่นที่แตกต่างกัน โดยมีระดับความจำเพาะต่างกัน”
ตัวอย่างเช่น หากนักพัฒนาขอให้หุ่นยนต์อธิบายรายละเอียดการเดินทางของพวกเขา พวกเขาอาจคาดหวังการบอกเล่าซ้ำที่ยาวนาน พร้อมรายละเอียดที่มีระดับแบตเตอรี่ แต่ผู้มาเยี่ยมแบบสุ่มอาจต้องการทราบว่าต้องใช้เวลานานแค่ไหนในการเดินทางจากสำนักงานหนึ่งไปยังอีกสำนักงานหนึ่ง
ดังนั้นการวิจัยจึงไม่ใช่แค่การแปลจากข้อมูลเป็นภาษาเท่านั้น แต่ยังรวมถึงการยอมรับว่าหุ่นยนต์จำเป็นต้องอธิบายสิ่งต่าง ๆ ด้วยรายละเอียดไม่มากก็น้อย หากมนุษย์ต้องการขอรายละเอียดเพิ่มเติม คำขอจะกระตุ้นให้ CoBot “ย้าย” ไปยังจุดที่มีรายละเอียดมากขึ้นในพื้นที่การพูด
“เรากำลังพยายามทำความเข้าใจวิธีเพิ่มขีดความสามารถให้หุ่นยนต์เชื่อถือได้มากขึ้นผ่านคำอธิบายเหล่านี้ เนื่องจากพวกมันสนใจในสิ่งที่มนุษย์ต้องการรู้” Veloso กล่าว ความสามารถในการสร้างคำอธิบาย โดยเฉพาะอย่างยิ่งในรายละเอียดหลายระดับ จะมีความสำคัญเป็นพิเศษในอนาคต เนื่องจากระบบ AI จะทำงานกับการตัดสินใจที่ซับซ้อนมากขึ้น มนุษย์อาจมีช่วงเวลาที่ยากลำบากกว่าในการอนุมานการให้เหตุผลของ AI ดังนั้นบอทจะต้องมีความโปร่งใสมากขึ้น
ตัวอย่างเช่น หากคุณไปที่สำนักงานแพทย์และ AI ให้คำแนะนำเกี่ยวกับสุขภาพของคุณ คุณอาจต้องการทราบว่าเหตุใดจึงตัดสินใจเช่นนี้ หรือเหตุใดจึงแนะนำให้ใช้ยาตัวหนึ่งมากกว่ายาตัวอื่น
ในปัจจุบัน การวิจัยของ Veloso มุ่งเน้นไปที่การทำให้หุ่นยนต์สร้างคำอธิบายเหล่านี้ด้วยภาษาธรรมดา ขั้นตอนต่อไปคือการให้หุ่นยนต์ใช้ภาษาธรรมชาติเมื่อมนุษย์ให้ข้อเสนอแนะแก่พวกเขา “[CoBot] สามารถพูดได้ว่า ‘ฉันมาจากทางนั้น’ และคุณสามารถพูดว่า ‘คราวหน้าได้โปรดใช้วิธีอื่นอีก’” Veloso อธิบาย
การแก้ไขประเภทนี้สามารถตั้งโปรแกรมไว้ในโค้ดได้ แต่ Veloso เชื่อว่า “ความน่าเชื่อถือ” ในระบบ AI จะได้รับประโยชน์จากความสามารถในการพูดคุย สอบถาม และแก้ไขความเป็นอิสระของพวกมัน เธอและทีมของเธอตั้งเป้าที่จะมีส่วนทำให้เกิดความสัมพันธ์แบบพึ่งพาอาศัยกันแบบหลายมนุษย์ซึ่งหุ่นยนต์และมนุษย์ประสานงานและร่วมมือกันตามข้อจำกัดและจุดแข็งของหุ่นยนต์
“สิ่งที่เรากำลังทำอยู่คือการเพิ่มพลังให้กับผู้คนจริงๆ ซึ่งเป็นบุคคลที่สุ่มเจอหุ่นยนต์ เพื่อให้สามารถถามสิ่งต่าง ๆ เกี่ยวกับหุ่นยนต์ในภาษาธรรมชาติได้” เธอกล่าว
ในอนาคต เมื่อเราจะมีระบบ AI มากขึ้นเรื่อยๆ ที่สามารถรับรู้โลก ตัดสินใจ และสนับสนุนการตัดสินใจของมนุษย์ ความสามารถในการมีส่วนร่วมในการสนทนาประเภทนี้จะมีความสำคัญ
ปรัชญาบางอย่าง
มาประยุกต์ใช้ทฤษฎีเหล่านี้กับ AI ข้าราชการในกรมสามัญศึกษากำลังพยายามตัดสินใจว่าจะให้คอมพิวเตอร์ทำนายเด็กที่อาจเสี่ยงต่อการตกโรงเรียนหรือไม่ จากนั้นเราอาจถามว่า ‘การทำให้กระบวนการนี้เป็นอัตโนมัติทำให้เกิดผลดีหรือไม่’ คำตอบดูเหมือนจะใช่ ยิ่งเราระบุได้ว่าเด็กกำลังตกอยู่ในความเสี่ยงมากเท่าใด เราก็ยิ่งสามารถช่วยเด็กได้มากเท่านั้น
ปัญหาที่อาจเกิดขึ้นประการหนึ่งคือ อาจมีเด็กสองสามคนที่ถูกระบุว่าเป็น ‘ความเสี่ยง’ อย่างไม่ถูกต้อง เนื่องจากมีข้อมูลที่ไม่เป็นระเบียบที่ป้อนลงในโปรแกรมอัตโนมัติ แต่สินค้าสุทธิที่ผลิตได้โดยรวมดูเหมือนจะเป็นไปในทางบวก
มาดูด้านพลิกกัน: แล้วเด็กๆ ที่พลาดรายชื่อ ‘ความเสี่ยง’ ของเราไปบ้างเพราะข้อมูลไม่เป็นระเบียบล่ะ ประโยชน์สุทธิของระบบอัตโนมัติอาจยังคงเป็นไปในทางบวก แต่บุคคลอาจหลุดพ้นจากช่องโหว่ (และนี่เป็นข้อกังวลทั่วไปเกี่ยวกับกระบวนการอัตโนมัติ)!
ดังนั้นตอนนี้ดูเหมือนว่าทฤษฎีของสินค้าสุทธิโดยตัวมันเองจะไม่ช่วยให้เราตัดสินว่าเราควรจะอัตโนมัติหรือไม่ ดังนั้นทฤษฎีแรกนี้จึงดูเหมือนจะไม่สามารถแก้ปัญหาทางจริยธรรมของเราได้อย่างเต็มที่

สล็อตออนไลน์

ทีนี้มาถามกันว่าการทำนายอัตโนมัติของเด็กที่มีความเสี่ยงนั้นเป็นไปตามกฎทองหรือไม่ กรอบทางจริยธรรมนี้ดูเหมือนจะก่อให้เกิด ‘ไม่’ ที่ดังก้อง (อย่างน้อยสำหรับพวกเราส่วนใหญ่) ตามสัญชาตญาณ เราไม่ต้องการให้บุตรหลานของเราถูกจัดหมวดหมู่และติดป้ายกำกับตามจุดข้อมูลที่ไม่มีตัวตน
ตอนนี้เรามีคำตอบที่ขัดแย้งกันสองข้อจากทฤษฎีทางจริยธรรมที่แตกต่างกัน คนหนึ่งพูดว่า ‘ใช่ อัตโนมัติ’ อีกคนหนึ่งบอกว่า ‘ไม่ อย่า’
ไม่แปลกใจเลยสำหรับนักปรัชญาที่ลัทธินิยมนิยมและ deontology มักจะให้คำตอบทางศีลธรรม ปริศนาทางศีลธรรมที่ยิ่งใหญ่ที่สุดของปรัชญาบางข้อถูกคิดค้นขึ้นเพื่อเน้นถึงความแตกต่างนี้ แต่เมื่อตัดสินใจนโยบายในชีวิตจริง เราจะทำอย่างไร? ถ้าฉันเป็นผู้ใช้ประโยชน์และเจ้านายของฉันเป็นนัก deontologist เราจะตัดสินใจได้อย่างไรว่าการทำงานอัตโนมัตินั้นถูกต้องตามหลักจริยธรรมหรือไม่
มีคำตอบสองสามข้อนี้ อย่างแรก เราอาจกล่าวได้ว่าจริยธรรมไม่ใช่สิ่งเดียวที่ต้องคำนึงถึง และเราต้องคำนึงถึงต้นทุน ทรัพยากร และประสิทธิภาพด้วย ดังนั้นจริยธรรมที่ได้รับการผลักไสให้พิจารณารอง – หรือเราเลือกทฤษฎีจริยธรรมที่เป็นส่วนใหญ่ในบรรทัดเหตุผลทางเศรษฐกิจของเราและแสดงให้เห็นถึงความมีเหตุผลทางศีลธรรมของเราโพสต์เฉพาะกิจ ประการที่สอง เราอาจต้องการทำให้นักปรัชญาคลั่งไคล้ด้วยการกำหนดกรอบการทำงานที่ช่วยให้เราประเมินการตัดสินใจของระบบอัตโนมัติในลักษณะองค์รวมมากขึ้น
สิ่งนี้นำเราไปสู่ทฤษฎีทางศีลธรรมที่สาม: จริยธรรมคุณธรรม
AI และคุณธรรม: Strange Bedfellows
คุณธรรมเป็นแนวคิดที่ส่วนใหญ่หายไปจากคำศัพท์ที่ไม่ใช่ศาสนาของเรา ในปรัชญา แนวคิดนี้มีความหมายคร่าวๆ เกี่ยวกับความเป็นเลิศทางศีลธรรมและความเจริญรุ่งเรืองของมนุษย์ ดังนั้นจึงดูเหมือนเป็นคำถามแปลก ๆ ที่จะถามว่าเครื่องสามารถมีส่วนร่วมได้อย่างไร แต่บางทีถ้าคอมพิวเตอร์สามารถระบุเด็ก ๆ ที่มีความเสี่ยงที่จะไม่สามารถเติบโตได้เต็มศักยภาพ เราอาจสร้างกรณีที่ระบบอัตโนมัติสามารถนำไปสู่คุณธรรมได้ อย่างไรก็ตาม จริยธรรมคุณธรรมให้ความสำคัญกับการเรียนรู้ผ่านประสบการณ์เป็นอย่างมาก และนั่นก็เป็นสิ่งที่คอมพิวเตอร์ดูเหมือนจะเอาไปทิ้ง
ลักษณะเด่นอีกประการหนึ่งที่จริยธรรมคุณธรรมเน้นคือแนวคิดของ ‘ความรอบรู้’: บุคคลจะมีคุณธรรมได้ก็ต่อเมื่อได้รับการพัฒนาอย่างดีรอบด้าน ดังนั้น ตรงข้ามกับลัทธินิยมนิยมและ deontology ซึ่งเพียงพอที่จะทำให้คุณเป็นคนมีศีลธรรมได้ ถ้าคุณทำสิ่งหนึ่งอย่างมีศีลธรรม คุณไม่สามารถมีศีลธรรมตามหลักคุณธรรมโดยการทำความดีเพียงสิ่งเดียว คุณต้องทำสิ่งต่างๆ ให้ดีและมีสติสัมปชัญญะซ้ำแล้วซ้ำเล่า และสิ่งนี้เป็นการปลูกฝังคุณธรรมที่มีคุณธรรม
เมื่อมองแวบแรก ดูเหมือนว่าสิ่งนี้จะไม่มีผลใดๆ กับกรณีศึกษาของเราในการติดธงทำเครื่องหมายนักเรียนที่มีความเสี่ยง
แล้วสิ่งนี้สามารถนำไปใช้กับเครื่องจักรได้อย่างไร?
วิธีคิดแบบใหม่เกี่ยวกับจริยธรรม AI
เป็นเวลานานที่จริยธรรมของ AI มีแนวโน้มที่จะเป็นประโยชน์ นักจริยธรรมกำหนดให้พิจารณาถึงผลที่ตามมาที่ระบบอัตโนมัติจะนำมา และเราตัดสินใจว่าระบบอัตโนมัตินั้นถูกต้องตามหลักจริยธรรมหรือไม่โดยพิจารณาจากผลลัพธ์นั้น
[NPC4]ก็ตอนนี้กลายเป็นแฟชั่นมากขึ้นในการที่จะต้องพิจารณาจริยธรรม AI deontologically กฎสามข้อของหุ่นยนต์ของ Asimov เป็นตัวอย่างวัฒนธรรมป๊อปที่ยอดเยี่ยมว่าเราอาจเริ่มคิดเกี่ยวกับบทบาทของหน้าที่ทางจริยธรรมเมื่อพูดถึง AI ปัญหาของสิ่งนี้คือ ตามที่นักวิทยาศาสตร์ทางการเมืองPeter W. Singer ชี้ให้เห็นคือ ‘ไม่มีเทคโนโลยีใดที่สามารถทำซ้ำกฎของ Asimov ในเครื่องได้’ เราไม่สามารถตั้งโปรแกรมคอมพิวเตอร์ไม่ให้ทำร้ายใครได้
ฉันขอแนะนำให้เราเริ่มพิจารณากระบวนการนี้อย่างครอบคลุมมากขึ้น ในฐานะเพื่อนร่วมงาน OI คนหนึ่งของฉัน (ซึ่งมีใจชอบในปรัชญาด้วย) กล่าวไว้ว่า ‘ไม่เพียงพอที่เครื่องจะทำงานได้ดีที่สุดในทันที ต้องออกแบบด้วยจิตวิญญาณแห่งคุณธรรม’
ระบบอัตโนมัติเป็นกระบวนการ มันเกี่ยวข้องกับปัจจัยการผลิตที่เกิดขึ้นจริงอัตโนมัติกระบวนการและเอาท์พุท ในขณะที่ลัทธินิยมนิยมและ deontology พิจารณาการตัดสินใจเป็นรายบุคคล ฉันขอเสนอว่าเราอาจต้องการใช้แนวทางตามกระบวนการเพื่อจรรยาบรรณ AI โดยเราจะแบ่งการตัดสินใจขั้นสุดท้ายออกเป็นส่วนๆ และประเมินแต่ละส่วน ดังนั้นบางทีจริยธรรมอันดีงามของ AI จะต้องทำให้เรามองที่กระบวนการที่ล้อมรอบ AI มากกว่าผลที่ตามมาของผลลัพธ์ของเครื่องหรือกฎที่ควบคุมหรือพฤติกรรมของมัน สิ่งนี้ทำให้เรากลับไปสู่ด้านมนุษย์ – ซึ่งเป็นสิ่งที่จริยธรรมคุณธรรมแนะนำโดยพื้นฐาน
คุณคงเคยได้ยินเกี่ยวกับปัญญาประดิษฐ์ในสื่อมาบ้างแล้ว คุณอาจเคยเห็นความก้าวหน้าของ AI ในข่าว หรือเคยดูตอนที่บ้านของSimpsonsเข้ายึดครองและพยายามจะฆ่า Homer มีความโลดโผนอยู่มากมาย และเรารู้ว่าการโลดโผนได้ผล อย่างไรก็ตาม ความกลัวบางอย่างกำลังเข้าใกล้ความเป็นจริง ทุกวันนี้ การจินตนาการถึงงานของเราโดยหุ่นยนต์ รถยนต์ที่ขับด้วยตนเองที่วิ่งผ่านคนเดินถนน และข้อมูลส่วนบุคคลของเราถูกขโมยไป ทุกวันนี้ไม่ได้นอกกำแพงโดยสิ้นเชิง
หากยังไม่ดีพอ AI ก็แสดงให้เห็นแล้วว่าสามารถขยายอคติต่อเชื้อชาติและเพศบางประเภทได้ เนื่องจากอัลกอริธึมที่สร้างขึ้นจากข้อมูลที่สะท้อนอคติทางสังคม ในตัวอย่างหนึ่ง อัลกอริธึมที่ใช้ในห้องพิจารณาคดีทั่วสหรัฐอเมริกาแสดงให้เห็นว่ามีอคติต่อจำเลยผิวสี โปรแกรม โปรไฟล์การจัดการผู้กระทำความผิดด้านราชทัณฑ์เพื่อการคว่ำบาตรทางเลือก (COMPAS) ถูกสร้างขึ้นเพื่อระบุว่าอาชญากรมีแนวโน้มที่จะทำผิดซ้ำอีกมากหรือน้อย รายงานซึ่งรวบรวมโดย ProPublica ยืนยันว่าโปรแกรมตั้งค่าสถานะจำเลยผิวดำอย่างผิด ๆ มีแนวโน้มที่จะทำผิดซ้ำเป็นสองเท่าเมื่อเทียบกับคนผิวขาว 45% ของจำเลยผิวดำถูกระบุว่าเป็นเท็จว่ามีความเสี่ยงสูงที่จะถูกกระทำความผิดซ้ำ ในขณะที่จำเลยผิวขาวเพียง 24% เท่านั้นที่ถูกจัดประเภทอย่างไม่ถูกต้องในหมวดหมู่เดียวกัน หลักฐานเพิ่มเติมแสดงให้เห็นว่าจำเลยผิวดำเพียง 28% เท่านั้นที่ถูกระบุว่ามีความเสี่ยงที่จะกระทำผิดซ้ำ เมื่อเทียบกับ 48% ของคนผิวขาว
เห็นได้ชัดว่าเรามีเหตุผลที่ดีที่จะกังวลเกี่ยวกับโปรแกรม AI ที่มีอคติ แต่หุ่นยนต์กำลังมา ไม่ว่าเราต้องการหรือไม่ก็ตาม ดังนั้น แทนที่จะกลัวการโกลาหลหรือฝังหัวของเราในทราย เราต้องทำงานเพื่อสร้างความไว้วางใจใน AI ในฐานะสังคม การสาธิตวิธีใช้ AI เพื่อสร้างผลลัพธ์ที่เป็นประโยชน์คือกุญแจสำคัญในการสร้างความไว้วางใจ นอกจากนี้ยังขึ้นอยู่กับรัฐบาลและองค์กรระหว่างประเทศที่จะกำหนดนโยบายเพื่อบรรเทาความกลัวของประชาชน
เพื่อสร้างความเชื่อมั่นใน AI มากขึ้น มีหลายประเด็นที่ต้องแก้ไข:
เปิดโอกาสให้ผู้หญิงและกลุ่มอื่นๆ ที่มีบทบาทต่ำต้อยเข้ามามีบทบาทนำในการสร้างสรรค์ AI มากขึ้น
การทำความเข้าใจและจัดการกับอคติของมนุษย์ซึ่งมักจะเขียนลงในข้อมูลและโปรแกรม ทำให้การกระทำและผลลัพธ์ของเครื่องมือ AI บิดเบือนไป
มุ่งเน้นไปที่การแก้ไขช่องว่าง (เช่น การเป็นตัวแทนที่เท่าเทียมกันระหว่างเพศ เชื้อชาติ และกลุ่มอายุ) ในข้อมูลขนาดใหญ่
ค้นหาวิธีแก้ปัญหาสำหรับผู้ที่ตกงานหรือมีความเสี่ยงที่จะสูญเสียพวกเขาไปสู่ระบบอัตโนมัติ
[NPC5]จากทั้งหมดที่กล่าวมา รัฐบาลและองค์กรระหว่างประเทศของเราไม่ได้ทำอะไรเลย อันที่จริง ต้องใช้เวลาและเงินจำนวนมากในการแก้ไขปัญหาเหล่านี้ และองค์กรจำนวนมากกำลังดำเนินการตามขั้นตอนที่สำคัญไปในทิศทางที่ถูกต้อง
ชีพจรสหประชาชาติทั่วโลกเป็นเครือข่ายของห้องปฏิบัติการนวัตกรรมที่มุ่งเน้นไปที่ ‘การควบคุมข้อมูลขนาดใหญ่สำหรับการพัฒนาและการดำเนินการด้านมนุษยธรรมและช่วยให้สถาบันการศึกษาภาครัฐสร้างนโยบายสันทัดกรณีที่ใช้ข้อมูลขนาดใหญ่และ AI สำหรับประชาชนที่ดี UN Global Pulse ทำงานในหลายโครงการเพื่อช่วยปิดช่องว่างของข้อมูล ในขณะเดียวกันก็สนับสนุนการวิจัยเพื่อช่วยให้บรรลุเป้าหมายการพัฒนาที่ยั่งยืน (SDGs) ผ่านการใช้ข้อมูลแบบเรียลไทม์และ AI