Get in my Think Art.

นักวิจัย AI สร้างวิดีโอเพื่อเรียกร้องให้มีการแบนอาวุธอัตโนมัติที่ UN

นักวิจัย AI สร้างวิดีโอเพื่อเรียกร้องให้มีการแบนอาวุธอัตโนมัติที่ UN

นักวิจัย AI สร้างวิดีโอเพื่อเรียกร้องให้มีการแบนอาวุธอัตโนมัติที่ UN

jumbo jili

ในการตอบสนองต่อความกังวลที่เพิ่มขึ้นเกี่ยวกับอาวุธที่เป็นอิสระ กลุ่มนักวิจัย AI และองค์กรสนับสนุนได้เผยแพร่วิดีโอที่สร้างขึ้นเมื่อวันจันทร์ที่ผ่านมาซึ่งแสดงให้เห็นอนาคตที่น่ารำคาญซึ่งอาวุธอัตโนมัติที่ร้ายแรงมีราคาถูกและแพร่หลาย

สล็อต

การสนับสนุนสำหรับการแบนได้รับการติดตั้ง เมื่อสัปดาห์ที่แล้วนักวิทยาศาสตร์ชาวแคนาดากว่า 200 คนและนักวิทยาศาสตร์ชาวออสเตรเลียอีกกว่า 100 คน ในด้านวิชาการและอุตสาหกรรม ได้เขียนจดหมายเปิดผนึกถึงนายกรัฐมนตรีจัสติน ทรูโด และมัลคอล์ม เทิร์นบูลล์ เรียกร้องให้พวกเขาสนับสนุนคำสั่งห้ามดังกล่าว ช่วงต้นฤดูร้อนนี้ ผู้นำของบริษัท AI กว่า 130 แห่งได้ลงนามในจดหมายเพื่อสนับสนุนการอภิปรายในสัปดาห์นี้ จดหมายเหล่านี้เป็นไปตามจดหมายเปิดผนึกปี 2015 ที่ เผยแพร่โดย Future of Life Institute และลงนามโดยนักวิจัย AI/Robotics มากกว่า 20,000 คน รวมถึง Elon Musk และ Stephen Hawking
จดหมายเหล่านี้บ่งบอกถึงความกังวลอย่างร้ายแรงและความรู้สึกว่าโอกาสในการลดอาวุธอัตโนมัติที่ร้ายแรงกำลังจะหมดลง
Noel Sharkey จากคณะกรรมการระหว่างประเทศเพื่อการควบคุมอาวุธหุ่นยนต์อธิบายว่า “การรณรงค์เพื่อหยุดหุ่นยนต์นักฆ่าไม่ได้พยายามยับยั้งนวัตกรรมในปัญญาประดิษฐ์และหุ่นยนต์ และไม่ต้องการแบนระบบอิสระในโลกพลเรือนหรือกองทัพ แต่เราเห็นความจำเป็นเร่งด่วนในการป้องกันการทำงานอัตโนมัติที่สำคัญสำหรับการเลือกเป้าหมายและการใช้ความรุนแรงโดยไม่ต้องพิจารณาจากมนุษย์ และเพื่อให้มั่นใจว่ามนุษย์สามารถควบคุมการโจมตีทุกครั้งได้อย่างมีความหมาย”
เทคโนโลยีโดรนในปัจจุบันนั้นใกล้จะเต็มความสามารถแล้ว และนักวิจัย AI ชั้นนำของโลกหลายคนกังวลว่าหากมีการพัฒนาอาวุธอิสระเหล่านี้ พวกเขาสามารถลดเกณฑ์การสู้รบลงได้อย่างมาก บรรเทาและลดค่าใช้จ่ายของชีวิตมนุษย์ เพิ่มพลังให้ผู้ก่อการร้าย และสร้างความไม่มั่นคงระดับโลก สหรัฐฯ และประเทศอื่นๆ ได้ใช้โดรนและระบบกึ่งอัตโนมัติในการโจมตีมาหลายปีแล้ว แต่การนำมนุษย์ออกจากวงอย่างสมบูรณ์นั้นขัดแย้งกับกฎหมายด้านมนุษยธรรมและสิทธิมนุษยชนระหว่างประเทศ
การแบนสามารถใช้พลังมหาศาลในวิถีการพัฒนาเทคโนโลยีโดยไม่จำเป็นต้องหยุดการใช้งานในทางที่ผิดทุกกรณี Max Tegmark ศาสตราจารย์ MIT และผู้ร่วมก่อตั้ง Future of Life Institute ชี้ว่า “ปฏิกิริยาการกระตุกเข่าของผู้คนที่คำสั่งแบนช่วยไม่ได้นั้นไม่ถูกต้องตามประวัติศาสตร์: การห้ามใช้อาวุธชีวภาพก่อให้เกิดการตีตราที่ทรงพลังซึ่งแม้จะโกงสนธิสัญญาก็ตาม เราแทบไม่มีการโจมตีด้วยการก่อการร้ายทางชีวภาพในปัจจุบัน และการระดมทุนด้านเทคโนโลยีชีวภาพเกือบทั้งหมดเป็นพลเรือน”
โทบี้ วอลช์ ศาสตราจารย์ด้าน AI แห่งมหาวิทยาลัยนิวเซาธ์เวลส์ ให้เหตุผลว่า “ชุมชนนักวิชาการได้ส่งข้อความที่ชัดเจนและสม่ำเสมอ อาวุธอัตโนมัติจะเป็นอาวุธแห่งความหวาดกลัว ซึ่งเป็นเครื่องมือที่สมบูรณ์แบบสำหรับผู้ที่ไม่มั่นใจในการใช้งานที่น่ากลัว เราต้องดำเนินการตอนนี้ก่อนที่อนาคตจะมาถึง”
มีประเทศเข้าร่วมมากกว่า 70 ประเทศเข้าร่วมการประชุมซึ่งจัดขึ้นระหว่างวันที่ 13-17 พฤศจิกายน ซึ่งจัดโดยการประชุมทบทวนครั้งที่ 5 ประจำปี 2559 ที่องค์การสหประชาชาติ ซึ่งจัดตั้งกลุ่มผู้เชี่ยวชาญของรัฐบาลเกี่ยวกับอาวุธทำลายล้างอัตโนมัติ การประชุมนี้มีเอกอัครราชทูต Amandeep Singh Gill แห่งอินเดียเป็นประธานการประชุม และประเทศต่างๆ จะดำเนินการเจรจาต่อไปเกี่ยวกับสิ่งที่จะกลายเป็นสนธิสัญญาระหว่างประเทศครั้งประวัติศาสตร์
การตรวจสอบภายในและภายนอกอาจเป็นกลไกในการสร้างความโปร่งใสเกี่ยวกับกระบวนการและผลลัพธ์ของโซลูชัน AI เมื่อมีการนำไปใช้ในบริบทเฉพาะ การตรวจสอบสามารถเกิดขึ้นได้ในขณะที่โซลูชันยังอยู่ในโหมด “นำร่อง” และเกิดขึ้นเป็นประจำระหว่างการใช้งาน ตัวอย่างเช่น ในเครื่องมือ Payment Card Industry (PCI) ความโปร่งใสเกิดขึ้นได้จากการตรวจสอบบ่อยครั้ง ซึ่งผลลัพธ์จะถูกส่งไปยังหน่วยงานกำกับดูแลและผู้พัฒนาในทันที ตามหลักการแล้ว ส่วนหนึ่งของผลการตรวจสอบก็ถูกเปิดเผยต่อสาธารณะเช่นกัน แม้ว่าจะไม่ได้แชร์ผลลัพธ์ทั้งหมดก็ตาม
ระดับความโปร่งใส
มีระดับและรูปแบบของความโปร่งใสที่แตกต่างกัน รวมถึงวิธีการต่างๆ ในการบรรลุผลเช่นเดียวกัน ประเภทและรูปแบบของความโปร่งใสสามารถจัดเป็นชั้นๆ และขึ้นอยู่กับปัจจัยต่างๆ เช่น ความสำคัญของการทำงาน อันตรายทั้งทางตรงและทางอ้อมที่อาจเกิดขึ้น ความอ่อนไหวของข้อมูลที่เกี่ยวข้อง ผู้ดำเนินการที่ใช้โซลูชัน ผู้ชมยังสามารถแบ่งชั้นได้และอาจมีตั้งแต่ผู้ใช้แต่ละรายไปจนถึงตำแหน่งระดับอาวุโส ไปจนถึงหน่วยงานกำกับดูแล
ความโปร่งใสในการเผชิญหน้าของมนุษย์
เป็นสิ่งสำคัญสำหรับอินเดียในการกำหนดมาตรฐานเกี่ยวกับการปฏิสัมพันธ์ระหว่างมนุษย์กับเครื่องจักร รวมถึงระดับความโปร่งใสที่จำเป็น แชทบอทจะต้องเปิดเผยว่าเป็นแชทบอทหรือไม่? จำเป็นต้องโพสต์ประกาศที่ใช้เทคโนโลยีการจดจำใบหน้าในกล้องวงจรปิดหรือไม่? บริษัทจะต้องเปิดเผยในแง่ของบริการและนโยบายความเป็นส่วนตัวว่าข้อมูลได้รับการประมวลผลผ่านโซลูชันที่ขับเคลื่อนด้วย AI หรือไม่ จะมีความแตกต่างหรือไม่หาก AI ตัดสินใจด้วยตนเอง เทียบกับ หาก AI มีบทบาทเสริม? ปัจจุบัน หนังสือพิมพ์ Niti Aayog ได้นิ่งเงียบกับคำถามนี้
คำอธิบาย
คำอธิบายไม่เท่ากับความโปร่งใสโดยสมบูรณ์ ภาระหน้าที่ในการให้คำอธิบายไม่ได้หมายความว่านักพัฒนาซอฟต์แวร์ควรรู้การไหลของบิตผ่านระบบ AI ข้อกำหนดทางกฎหมายในการให้คำอธิบายต้องมีความสามารถในการอธิบายว่าพารามิเตอร์บางอย่างอาจถูกใช้เพื่อให้ได้ผลลัพธ์ในสถานการณ์ใดสถานการณ์หนึ่ง
Doshi-Velez และ Kortz ได้เน้นย้ำแนวคิดทางเทคนิคสองข้อที่อาจช่วยเพิ่มความสามารถของนักพัฒนาในการอธิบายการทำงานของระบบ AI:
1) การสร้างความแตกต่างและการประมวลผล: ระบบ AI ได้รับการออกแบบมาเพื่อให้อินพุตที่แตกต่างและประมวลผลผ่านรูปแบบต่างๆ ของการคำนวณในลักษณะที่ทำซ้ำได้และมีประสิทธิภาพ ดังนั้น นักพัฒนาซอฟต์แวร์ควรสามารถอธิบายการตัดสินใจโดยเฉพาะอย่างยิ่งโดยการตรวจสอบปัจจัยการผลิตเพื่อพยายามพิจารณาว่าการตัดสินใจใดมีผลกระทบต่อผลลัพธ์มากที่สุด
2) ความซื่อตรงในการต่อต้าน: คุณสมบัติที่สองของความซื่อสัตย์ในการโต้แย้งช่วยให้นักพัฒนาสามารถพิจารณาว่าปัจจัยใดทำให้เกิดความแตกต่างในผลลัพธ์ โซลูชันทั้งสองนี้สามารถใช้งานได้โดยไม่จำเป็นต้องทราบเนื้อหาของกล่องดำ ตาม Pasquale “การอธิบายมีความสำคัญเนื่องจากกระบวนการให้เหตุผลนั้นมีอยู่ในตัวของการพิจารณาทางกฎหมาย ไม่ใช่แค่ลักษณะเฉพาะแบบแยกส่วนเดียวที่ถูกทิ้งให้เป็นแบบผิดเวลาเมื่อการคาดการณ์อัตโนมัติมีความก้าวหน้าเพียงพอ”
ระบบตามกฎที่ใช้ตามบริบท
Oswald et al ได้เสนอข้อเสนอสองข้อที่อาจลดความทึบของอัลกอรึทึมโดยการออกแบบระบบตามกฎที่กว้าง ซึ่งจำเป็นต้องมีการนำไปใช้ในลักษณะเฉพาะบริบท ซึ่งจะประเมินตัวเปิดใช้งานหลักและผู้ท้าทายในแต่ละกรณีการใช้งานอย่างละเอียดถี่ถ้วน

สล็อตออนไลน์

สัดส่วนในการทดลองได้รับการออกแบบมาเพื่อให้ศาลสามารถกำหนดสัดส่วนของอัลกอริทึมในขั้นตอนการทดลองได้ แม้กระทั่งก่อนที่ผลกระทบจะได้รับการตระหนักอย่างเต็มที่ในลักษณะที่จะช่วยให้พวกเขามั่นใจได้ว่ามีการนำเมตริกที่เหมาะสมสำหรับการประเมินประสิทธิภาพการทำงานและหลักการออกแบบที่สอดคล้องกันมาใช้ ในกรณีเช่นนี้ พวกเขาแนะนำว่าศาลให้ผลประโยชน์ของข้อสงสัยแก่หน่วยงานภาครัฐภายใต้การพิจารณาคดีอื่นภายในระยะเวลาที่กำหนดเมื่อข้อมูลเกี่ยวกับผลกระทบของอัลกอริธึมมีพร้อมมากขึ้น
‘ALGO-CARE’ เรียกร้องให้มีการออกแบบระบบตามกฎซึ่งทำให้มั่นใจได้ว่าอัลกอริทึม คือ:
(1) คำแนะนำ: อัลกอริธึมต้องคงไว้ซึ่งความสามารถในการให้คำปรึกษาที่เสริมความสามารถของมนุษย์ที่มีอยู่ แทนที่จะแทนที่ดุลยพินิจของมนุษย์โดยสิ้นเชิง
(2) ถูกกฎหมาย: ฟังก์ชัน การประยุกต์ใช้ ผลกระทบส่วนบุคคล และการใช้ชุดข้อมูลของอัลกอริทึมที่เสนอควรพิจารณาในการทำงานร่วมกันกับความจำเป็น สัดส่วน และหลักการย่อเล็กสุดของข้อมูล
(3) ความละเอียด: ปัญหาต่างๆ เช่น ปัญหาการวิเคราะห์ข้อมูล เช่น ความหมายของข้อมูล ความท้าทายที่เกิดจากส่วนต่างๆ ของข้อมูล ข้อมูลที่ละเว้น และการอนุมานควรเป็นประเด็นสำคัญในกระบวนการดำเนินการ
(4) ความเป็นเจ้าของ: ควรคำนึงถึงความเป็นเจ้าของทรัพย์สินทางปัญญาอย่างเหมาะสม แต่ในกรณีของอัลกอริธึมที่ใช้สำหรับการกำกับดูแล อาจเป็นการดีกว่าที่จะมีอัลกอริธึมโอเพนซอร์สเป็นค่าเริ่มต้น นักพัฒนาต้องแน่ใจว่าอัลกอริทึมทำงานในลักษณะที่ช่วยให้บุคคลที่สามตรวจสอบการทำงานของอัลกอริทึมในบริบทของการพิจารณาคดีที่เป็นปฏิปักษ์ได้โดยไม่คำนึงถึงภาคส่วน
(5) ท้าทายได้: ผลลัพธ์ของการวิเคราะห์อัลกอริธึมควรใช้โดยคำนึงถึงรหัสและข้อบังคับของมืออาชีพและเป็นสิ่งที่ท้าทาย ในรายงานการประเมินเอกสารอภิปรายของ NITI AAYOG นั้น CIS ได้โต้แย้งว่า AI ที่ใช้ในการกำกับดูแลจะต้องทำให้สามารถตรวจสอบได้ในสาธารณสมบัติ หากไม่อยู่ภายใต้ซอฟต์แวร์เสรีและโอเพ่นซอร์ส (FOSS) โดยเฉพาะในกรณีของ AI ที่มี ผลกระทบต่อสิทธิขั้นพื้นฐาน
(6) ความแม่นยำ: การออกแบบอัลกอริทึมควรตรวจสอบความถูกต้อง
(7) รับผิดชอบ: ควรพิจารณาหลักการทางจริยธรรมและคุณธรรมที่กว้างขึ้นและรากฐานของสิทธิมนุษยชนในฐานะผู้ค้ำประกันศักดิ์ศรีความเป็นมนุษย์ในทุกระดับและ
(8) อธิบายได้: แมชชีนเลิร์นนิงควรตีความและรับผิดชอบได้
ระบบตามกฎเช่น ALGO-CARE สามารถเปิดใช้งานการคาดการณ์ในกรอบการใช้งานสำหรับ AI การคาดเดาเป็นการชมเชยและเสริมสร้างความโปร่งใส
ความรับผิดชอบ
ดำเนินการประเมินผลกระทบ
มีความจำเป็นต้องพัฒนากรอบการประเมินผลกระทบอัลกอริทึมสำหรับภาคส่วนต่างๆ ในอินเดีย ซึ่งควรจัดการกับปัญหาอคติ ความไม่เป็นธรรม และผลกระทบที่เป็นอันตรายอื่นๆ ของการใช้การตัดสินใจโดยอัตโนมัติ AI เป็นพื้นที่ตั้งไข่และผลกระทบของเทคโนโลยีที่มีต่อเศรษฐกิจ สังคม ฯลฯ ยังไม่เป็นที่เข้าใจอย่างถ่องแท้ มาตรฐานการประเมินผลกระทบจะมีความสำคัญในการระบุและจัดการกับอันตรายที่อาจเกิดขึ้นหรือที่มีอยู่ และอาจมีความสำคัญมากกว่าในภาคส่วนหรือการใช้งานที่มีปฏิสัมพันธ์ของมนุษย์โดยตรงกับ AI หรือมิติด้านพลังงาน เช่น ในด้านการดูแลสุขภาพหรือการใช้งานโดยรัฐบาล รายงานประจำปี 2018 โดยสถาบัน AI Now แสดงรายการวิธีการที่รัฐบาลควรนำไปใช้เพื่อดำเนินการประเมินแบบองค์รวม : สิ่งเหล่านี้ควรรวมถึง:
(1) การประเมินตนเองโดยหน่วยงานของรัฐที่รับผิดชอบในการนำเทคโนโลยีไปใช้
(2) การพัฒนากลไกการทบทวนนักวิจัยภายนอกแบบสหวิทยาการที่มีความหมาย
(3) ประกาศต่อสาธารณชนเกี่ยวกับการประเมินตนเองและการทบทวนจากภายนอก ,
(4) การเรียกร้องความคิดเห็นของประชาชนเพื่อชี้แจงหรือข้อกังวล
(5) คำนึงถึงชุมชนที่อ่อนแอซึ่งอาจไม่สามารถใช้เสียงในการดำเนินคดีในที่สาธารณะได้ กลไกการทบทวนที่เพียงพอซึ่งประเมินผลกระทบของ AI แบบองค์รวมจะรวมองค์ประกอบทั้ง 5 เหล่านี้เข้าด้วยกันในอุดมคติ
[NPC4]ระเบียบของอัลกอริทึม
ผู้เชี่ยวชาญได้แสดงความกังวลเกี่ยวกับ AI ที่เลียนแบบอคติของมนุษย์เนื่องจากอคติที่มีอยู่ในอัลกอริธึมการเรียนรู้ของเครื่อง นักวิทยาศาสตร์ได้เปิดเผยผ่านการวิจัยของพวกเขาว่าอัลกอริธึมการเรียนรู้ของเครื่องสามารถดูดซับอคติทางเพศและทางเชื้อชาติซึ่งฝังแน่นในรูปแบบภาษาหรือกระบวนการรวบรวมข้อมูล เนื่องจาก AI และอัลกอริธึมของเครื่องจักรขับเคลื่อนด้วยข้อมูล จึงได้ผลลัพธ์และโซลูชันตามที่มีอยู่
และข้อมูลทางประวัติศาสตร์ เมื่อข้อมูลนี้มีอคติ โซลูชันที่นำเสนอโดย AI ก็จะมีอคติเช่นกัน แม้ว่าสิ่งนี้จะเป็นการเลือกปฏิบัติโดยเนื้อแท้ นักวิทยาศาสตร์ได้จัดเตรียมวิธีแก้ปัญหาเพื่อแก้ไขอคติเหล่านี้ ซึ่งสามารถเกิดขึ้นได้ในขั้นตอนต่างๆ โดยการแนะนำอคติตอบโต้ในอีกขั้นตอนหนึ่ง นอกจากนี้ยังมีข้อเสนอแนะว่าตัวอย่างข้อมูลควรมีรูปแบบในลักษณะดังกล่าวเพื่อลดโอกาสของอคติอัลกอริธึม โดยหลักการแล้วระเบียบของอัลกอริธึมสามารถปรับแต่งได้ – ความสามารถในการอธิบาย การตรวจสอบย้อนกลับ การตรวจสอบอย่างละเอียด เราขอแนะนำว่ากลยุทธ์ระดับชาติเกี่ยวกับนโยบาย AI จะต้องคำนึงถึงปัจจัยเหล่านี้และการรวมกันของหน่วยงานกลางที่ขับเคลื่อนวาระการประชุม และผู้ดำเนินการตามภาคส่วนกำหนดกรอบข้อบังคับเกี่ยวกับการใช้ AI เฉพาะที่เป็นปัญหาและจำเป็นต้องมีการนำไปปฏิบัติ
ในขณะที่รัฐบาลเริ่มนำ AI มาใช้ในการกำกับดูแล – ขอบเขตและสถานการณ์ความสามารถในการตัดสินใจโดยอิสระสามารถมอบหมายให้กับ AI ได้ คำถามที่ว่า AI ควรเป็นแบบอัตโนมัติหรือไม่ ควรมีมนุษย์อยู่ในวงเสมอ และควรมี ‘สวิตช์ฆ่า’ เมื่อใช้ในบริบทดังกล่าวก็จำเป็นต้องได้รับคำตอบด้วย กรอบงานหรือหลักการระดับสูงสามารถช่วยชี้นำการตัดสินใจเหล่านี้ได้ ตัวอย่างเช่น:
การสร้างแบบจำลองพฤติกรรมมนุษย์: โซลูชัน AI ที่พยายามจำลองพฤติกรรมของมนุษย์ เช่น ในกรณีของการตัดสินใจของศาลหรือการตรวจสอบเชิงพยากรณ์ อาจต้องมีการควบคุมมากขึ้น ปฏิบัติตามมาตรฐานที่เข้มงวดยิ่งขึ้น และต้องการการกำกับดูแลมากกว่าอัลกอริทึมที่พยายามคาดการณ์ ‘ ปรากฏการณ์ทางธรรมชาติ เช่น การจราจรติดขัดหรือรูปแบบสภาพอากาศ
ผลกระทบต่อมนุษย์: โซลูชัน AI ที่อาจก่อให้เกิดอันตรายมากขึ้นหากใช้อย่างไม่ถูกต้อง เช่น ทหารหุ่นยนต์ที่มุ่งเป้าไปที่พลเรือนโดยไม่ได้ตั้งใจ ต้องใช้ระดับและกรอบการควบคุมที่แตกต่างจากโซลูชัน AI ที่ออกแบบมาเพื่อสร้างเส้นทางการเรียนรู้สำหรับนักเรียนในภาคการศึกษา และผิดพลาดในการประเมินที่เหมาะสม..
ผู้ใช้หลัก: โซลูชัน AI ที่ผู้ใช้หลักเป็นตัวแทนของรัฐที่พยายามปฏิบัติหน้าที่เพื่อประโยชน์สาธารณะ เช่น ตำรวจ ควรเข้าหาด้วยความระมัดระวังมากกว่าที่ใช้โดยบุคคล เช่น เกษตรกรที่ได้รับการแจ้งเตือนสภาพอากาศ
ความเป็นธรรม
เป็นไปได้ที่จะรวมคำจำกัดความกว้างๆ ของความเป็นธรรมเข้าไว้ในระบบการวิเคราะห์ข้อมูลและการจำแนกประเภทที่หลากหลาย แม้ว่าจะไม่มีกฎเกณฑ์ที่ชัดเจนที่จะช่วยให้ผู้ปฏิบัติงานหรือผู้ออกแบบระบบแมชชีนเลิร์นนิงไปถึงการพิจารณาความเป็นธรรมในอดีต จากมุมมองของนโยบายสาธารณะ จะต้องมีชุดของกฎเกณฑ์หรือดีที่สุด แนวปฏิบัติที่อธิบายว่าควรใช้แนวคิดเรื่องความเป็นธรรมในการใช้งานจริงของโซลูชันที่ขับเคลื่อนด้วย AI แม้ว่านักพัฒนาซอฟต์แวร์ควรเข้ารหัสพารามิเตอร์ในวงกว้างเพื่อให้แน่ใจว่าสอดคล้องกับมาตรฐานตามรัฐธรรมนูญ แต่ก็เป็นสิ่งสำคัญเช่นกันที่การทำงานของอัลกอริทึมจะช่วยให้สามารถกำหนดความเป็นธรรมโดยหน่วยงานกำกับดูแลที่เป็นอิสระได้หากผลกระทบของโซลูชันที่ขับเคลื่อนด้วย AI ถูกท้าทาย .
[NPC5]นอกจากนี้ แม้ว่าจะไม่มีแบบอย่างในเรื่องนี้ในโลก แต่อินเดียอาจพิจารณาจัดตั้งคณะกรรมการที่ได้รับมอบหมายให้มีหน้าที่เฉพาะในการประเมินการดำเนินงานของอัลกอริธึมที่ขับเคลื่อนด้วย AI อย่างต่อเนื่อง คำถามที่รัฐบาลจะต้องตอบเกี่ยวกับร่างนี้ ได้แก่ :
องค์ประกอบของร่างกายควรเป็นอย่างไร?
กลไกขั้นตอนที่ควบคุมการทำงานของร่างกายควรเป็นอย่างไร?
คณะกรรมการตรวจสอบควรเข้ามาเมื่อไหร่? นี่เป็นสิ่งสำคัญเนื่องจากการตรวจสอบที่มากเกินไปอาจทำให้ระบบราชการกลับมายึดติดอีกครั้งซึ่งโซลูชันที่ขับเคลื่อนด้วย AI กำลังมองหาที่จะกำจัด
ข้อมูลใดบ้างที่จำเป็นสำหรับคณะกรรมการตรวจสอบเพื่อดำเนินการพิจารณา จะมีความขัดแย้งกับ IP หรือไม่ และถ้าเป็นเช่นนั้นจะแก้ไขได้อย่างไร?
ผลการวิจัยของคณะกรรมการจะเปิดเผยต่อสาธารณะในระดับใด
คณะกรรมการจะมีอำนาจอะไร? นอกจากกำหนดแล้วจะบังคับใช้อย่างไร?