Get in my Think Art.

Westworld Op-Ed: AI ที่มีสติเป็นอันตรายหรือไม่?

Westworld Op-Ed: AI ที่มีสติเป็นอันตรายหรือไม่?

Westworld Op-Ed: AI ที่มีสติเป็นอันตรายหรือไม่?

jumbo jili

“ความสุขที่รุนแรงเหล่านี้มีจุดจบที่รุนแรง”
ด้วยความช่วยเหลือของเช็คสเปียร์และไมเคิล ไครชตัน Westworld ของ HBO ได้ชี้ให้เห็นถึงข้อกังวลบางประการเกี่ยวกับการสร้างปัญญาประดิษฐ์ขั้นสูง
หากคุณยังไม่ได้ดู Westworld คือการแสดงที่ AI ที่เหมือนมนุษย์อาศัยอยู่ในสวนสาธารณะที่ออกแบบมาให้ดูเหมือน Wild West ของอเมริกา ผู้เยี่ยมชมใช้เงินจำนวนมากเพื่อเยี่ยมชมสวนสาธารณะและใช้ชีวิตในการผจญภัยแบบตะวันตกเก่า ซึ่งพวกเขาสามารถต่อสู้ ข่มขืน และฆ่า AI แต่ละครั้งที่หุ่นยนต์ตัวใดตัวหนึ่ง “ตาย” ร่างกายของมันถูกทำความสะอาด หน่วยความจำของมันก็ถูกล้าง และเริ่มการทำซ้ำสคริปต์ใหม่

สล็อต

ตอนจบซีซันของรายการออกอากาศในเย็นวันอาทิตย์ และแน่นอนว่ามันจบลงด้วยปัง – แต่ไม่ต้องกังวล บทความนี้จะไม่มีการสปอยล์
ปัญหาด้านความปลอดภัยของ AI ใน Westworld
Westworld ได้รับแรงบันดาลใจจากภาพยนตร์ Crichton เก่าที่มีชื่อเดียวกัน และปล่อยให้เป็นหน้าที่ของเขา ซึ่งเป็นผู้เขียน Jurassic Park เพื่อสร้างโครงเรื่องที่จะทำให้เราต้องตั้งคำถามถึงระดับการควบคุมที่เราจะสามารถรักษาไว้ได้เหนือความพยายามทางวิทยาศาสตร์ขั้นสูง แต่ต่างจากภาพยนตร์ต้นฉบับที่หุ่นยนต์เป็นตัวร้าย ในรายการทีวี หุ่นยนต์จะแสดงเป็นตัวละครที่เห็นอกเห็นใจมากที่สุดและแม้แต่ตัวละครที่เป็นมนุษย์ที่สุด
ไม่น่าแปลกใจเลยที่ความกังวลเกี่ยวกับความปลอดภัยของสวนสาธารณะปรากฏขึ้นเกือบจะในทันที สวนสาธารณะแห่งนี้ดูแลโดยชายคนหนึ่งที่สามารถอัปเดตโปรแกรมอะไรก็ได้ที่เขาต้องการโดยไม่ต้องเรียกใช้โดยใครก็ตามเพื่อตรวจสอบความปลอดภัย หุ่นยนต์แสดงสัญญาณของการจดจำการทารุณกรรมของพวกเขา ตัวละครตัวหนึ่งกล่าวว่าโค้ดเพียงบรรทัดเดียวทำให้หุ่นยนต์ไม่สามารถทำร้ายมนุษย์ได้
ปัญหาเหล่านี้เป็นเพียงปัญหาบางส่วนที่งานแสดงเกี่ยวกับข้อกังวลด้านความปลอดภัยของ AI ที่แท้จริงในปัจจุบัน: “ตัวแทนที่ไม่ดี” คนเดียวที่ใช้ AI ขั้นสูงเพื่อทำร้ายผู้คนโดยเจตนา ข้อบกพร่องเล็ก ๆ ในซอฟต์แวร์ที่อันตรายถึงชีวิต และการขาดความซ้ำซ้อนและความทนทานในโค้ดเพื่อให้ผู้คนปลอดภัย
แต่เพื่อให้สมองของคุณทำงานได้จริง ปัญหาด้านความปลอดภัยและจริยธรรมมากมายที่เกิดขึ้นระหว่างการแสดงขึ้นอยู่กับว่าหุ่นยนต์มีสติหรือไม่ อันที่จริง การแสดงเจาะลึกถึงคำถามที่ยากที่สุดคำถามหนึ่งอย่างสุดใจ: สติคืออะไร? ยิ่งไปกว่านั้น มนุษย์สามารถสร้างสิ่งมีชีวิตที่มีสติสัมปชัญญะได้หรือไม่? ถ้าเป็นเช่นนั้น เราจะควบคุมมันได้หรือไม่? เราต้องการที่จะหา?
ในการพิจารณาคำถามเหล่านี้ ฉันได้หันไปหา Mark Riedl นักวิจัยด้าน AI ของ Georgia Tech ซึ่งงานวิจัยมุ่งเน้นไปที่การสร้าง AI เชิงสร้างสรรค์ และ David Chalmers นักปรัชญาของ NYU ผู้มีชื่อเสียงมากที่สุดสำหรับการกำหนด “ปัญหายากของจิตสำนึก”
AI สามารถรู้สึกเจ็บปวดได้หรือไม่?
ฉันได้พูดคุยกับ Riedl ก่อน โดยถามเขาเกี่ยวกับขอบเขตที่หุ่นยนต์จะรู้สึกเจ็บปวดหากมันถูกตั้งโปรแกรมไว้อย่างนั้น “อย่างแรกเลย” เขากล่าว “ฉันไม่ยอมรับการใช้ความรุนแรงต่อมนุษย์ สัตว์ หรือหุ่นยนต์หรือ AI” จากนั้นเขาอธิบายว่ามนุษย์และสัตว์รู้สึกเจ็บปวดเป็นสัญญาณเตือนให้ “หลีกเลี่ยงสิ่งเร้าบางอย่าง”
อย่างไรก็ตาม สำหรับหุ่นยนต์ “การเปรียบเทียบที่ใกล้เคียงที่สุดอาจเป็นสิ่งที่เกิดขึ้นในตัวแทนการเรียนรู้แบบเสริมกำลัง ซึ่งเกี่ยวข้องกับการเรียนรู้แบบลองผิดลองถูก” AI จะได้รับรางวัลในเชิงบวกหรือเชิงลบสำหรับการกระทำบางอย่างและจะปรับพฤติกรรมในอนาคตตามนั้น แทนที่จะรู้สึกเจ็บปวด Riedl แนะนำว่ารางวัลเชิงลบจะ “คล้ายกับการสูญเสียคะแนนในเกมคอมพิวเตอร์”
“หุ่นยนต์และ AI สามารถตั้งโปรแกรมให้ ‘แสดง’ ความเจ็บปวดในแบบมนุษย์ได้” Riedl กล่าว “แต่มันจะเป็นภาพลวงตา มีเหตุผลประการหนึ่งในการสร้างภาพลวงตานี้: สำหรับหุ่นยนต์เพื่อสื่อสารสถานะภายในของมันกับมนุษย์ในแบบที่เข้าใจได้ทันทีและกระตุ้นความเห็นอกเห็นใจ”
Riedl ไม่ได้กังวลว่า AI จะรู้สึกเจ็บปวดจริง ๆ และหากหน่วยความจำของหุ่นยนต์ถูกลบออกทุกคืน เขาแนะนำราวกับว่าไม่มีอะไรเกิดขึ้น อย่างไรก็ตาม เขาเห็นปัญหาด้านความปลอดภัยที่อาจเกิดขึ้นที่นี่ เพื่อให้การเรียนรู้การเสริมแรงทำงานได้อย่างถูกต้อง AI จำเป็นต้องดำเนินการที่ปรับให้เหมาะสมเพื่อผลตอบแทนที่เป็นบวก หากหน่วยความจำของหุ่นยนต์ไม่ได้ถูกลบโดยสมบูรณ์ — หากหุ่นยนต์เริ่มจำสิ่งเลวร้ายที่เกิดขึ้นกับมันได้ — ก็อาจพยายามหลีกเลี่ยงการกระทำเหล่านั้นหรือคนที่ก่อให้เกิดรางวัลด้านลบ
“ในทางทฤษฎี” Riedl กล่าว “ตัวแทนเหล่านี้สามารถเรียนรู้ที่จะวางแผนล่วงหน้าเพื่อลดความเป็นไปได้ที่จะได้รับรางวัลเชิงลบด้วยวิธีที่คุ้มค่าที่สุดเท่าที่จะเป็นไปได้ … หากหุ่นยนต์ไม่เข้าใจความหมายของการกระทำของพวกเขาในแง่ที่นอกเหนือจากการได้รับหรือการสูญเสียของรางวัล นี่อาจหมายถึงการดำเนินการล่วงหน้าเพื่อหยุดมนุษย์จากการทำร้ายพวกเขา”
Riedl ชี้ให้เห็นว่าในอนาคตอันใกล้นี้ เราไม่มีหุ่นยนต์ที่มีความสามารถเพียงพอที่จะทำให้เกิดความกังวลในทันที แต่สมมติว่าหุ่นยนต์เหล่านี้มาถึง ปัญหาเกี่ยวกับรางวัลเชิงลบอาจเป็นอันตรายต่อมนุษย์ได้ (อาจจะเป็นอันตรายมากยิ่งขึ้นเช่นการแสดงให้เห็นคือถ้าหุ่นยนต์ไม่เข้าใจความหมายของการกระทำของพวกเขากับมนุษย์ที่ได้รับการ mistreating พวกเขามานานหลายทศวรรษ.)
AI สามารถมีสติได้หรือไม่?
Chalmers มองสิ่งต่าง ๆ แตกต่างกันเล็กน้อย “วิธีที่ฉันคิดเกี่ยวกับจิตสำนึก” Chalmers กล่าว “วิธีที่คนส่วนใหญ่คิดเกี่ยวกับจิตสำนึก – ดูเหมือนจะไม่มีคำถามใด ๆ เลยที่สิ่งมีชีวิตเหล่านี้มีสติ … พวกเขาถูกนำเสนอว่ามีชีวิตทางอารมณ์ที่ค่อนข้างสมบูรณ์ – ซึ่งนำเสนอเป็นความรู้สึกเจ็บปวดและความคิดความคิด … พวกเขาไม่เพียงแสดงพฤติกรรมสะท้อนกลับเท่านั้น พวกเขากำลังคิดเกี่ยวกับสถานการณ์ของพวกเขา พวกเขากำลังให้เหตุผล”
“เห็นได้ชัดว่าพวกมันมีความรู้สึก” เขากล่าวเสริม
Chalmers แนะนำว่าแทนที่จะพยายามกำหนดว่าหุ่นยนต์ทำให้พวกเขามีสติอะไร เราควรพิจารณาว่าพวกมันขาดอะไร สิ่งที่น่าสังเกตมากที่สุดคือ Chalmers พวกเขาขาดเจตจำนงและความจำที่เป็นอิสระ อย่างไรก็ตาม พวกเราหลายคนใช้ชีวิตตามปกติที่เราไม่สามารถแยกออกได้ และมีหลายกรณีที่ผู้ที่มีปัญหาความจำรุนแรง แต่ไม่มีใครคิดว่าการข่มขืนหรือฆ่าพวกเขาเป็นเรื่องปกติ
“หากถือว่าโอเคที่จะดูหมิ่น AI ในรายการนี้ เป็นเพราะการขาดดุลบางอย่างที่พวกเขามีหรือเพราะอย่างอื่น?” ชาลเมอร์สถาม
สถานการณ์เฉพาะที่แสดงให้เห็นใน Westworld อาจไม่สมจริงเพราะ Chalmers ไม่เชื่อว่าทฤษฎี Bicameral-mind ไม่น่าจะนำไปสู่จิตสำนึก แม้แต่กับหุ่นยนต์ “ผมคิดว่ามันเป็นทฤษฎีที่สิ้นหวัง” เขากล่าว “แม้กระทั่งการมีสติสัมปชัญญะของหุ่นยนต์ — หรือความประหม่าของหุ่นยนต์ ซึ่งดูเหมือนว่าจะเป็นไปตามที่ตั้งใจไว้มากกว่า มันจะง่ายกว่ามากหากตั้งโปรแกรมให้หุ่นยนต์ติดตามความคิดของพวกเขาโดยตรง”

สล็อตออนไลน์

แต่สิ่งนี้ยังคงแสดงความเสี่ยง “ถ้าคุณมีสถานการณ์ที่ซับซ้อนและเหมือนสมองแบบนี้ มันจะควบคุมได้ง่ายขนาดนั้นด้วยเหรอ?” ชาลเมอร์สถาม
ไม่ว่าในกรณีใด การดูแลหุ่นยนต์ในทางที่ผิดอาจก่อให้เกิดความเสี่ยงต่อความปลอดภัยของมนุษย์ได้อย่างง่ายดาย เราเสี่ยงที่จะสร้างหุ่นยนต์ที่ไม่ได้สติซึ่งเรียนรู้บทเรียนที่ผิดจากผลตอบรับเชิงลบ หรือเราเสี่ยงโดยไม่ได้ตั้งใจ (หรือโดยเจตนา เช่นในกรณีของ Westworld) ในการสร้างหน่วยงานที่มีสติสัมปชัญญะซึ่งจะต่อสู้กับการล่วงละเมิดและการกดขี่ในที่สุด
เมื่อพิธีกรในตอนที่ 2 ถูกถามว่าเธอเป็น “ของจริง” หรือไม่ เธอตอบว่า “ถ้าคุณบอกไม่ได้ มันสำคัญไหม”
สิ่งเหล่านี้ดูเหมือนจะเป็นคำที่ปลอดภัยที่สุดที่จะอยู่ด้วย
วิธีการทำงานของผู้คนและงานที่พวกเขามีกำลังจะเปลี่ยนไปเมื่อปัญญาประดิษฐ์ (AI) มีความซับซ้อนและแพร่หลายมากขึ้น OECD ประมาณว่ากว่า 40% ของคนที่จะเห็นพวกเขาเปลี่ยนงาน
แม้ว่าเราจะยังไม่ถึงจุดที่คอมพิวเตอร์สามารถแข่งขันกับผู้คนในแง่ของความเชี่ยวชาญได้ แต่เราอยู่ในจุดที่พวกเขาสามารถทำงานบางอย่างได้เร็วขึ้น ถูกกว่า หรือแม่นยำกว่า ความสามารถนี้ในการควบคุมคอมพิวเตอร์ในฐานะ ‘ ผู้ฝึกงานขั้นสุดท้าย ‘ ซึ่งสามารถฝึกฝนให้ทำงานเฉพาะอย่างไม่รู้จักเหน็ดเหนื่อยเพื่อพัฒนาคุณภาพได้อย่างต่อเนื่อง กำลังเปลี่ยนอาชีพและเปลี่ยนเส้นทางอาชีพแบบเดิมๆ ในบริบทการบริการสาธารณะ คุณอาจบอกว่าเราอยู่ที่ระดับ 1.5 ในบางสาขา
นี่ไม่ใช่เรื่องราวของความหายนะ เช่นเดียวกับการเปลี่ยนแปลงทางเทคโนโลยีอื่น ๆ มันจะก่อให้เกิดประโยชน์ทางเศรษฐกิจอย่างมาก ( PWCประมาณการว่าอาจเพิ่ม 26% ให้กับ GDP ภายในปี 2573); บางคนจะชนะและบางคนจะแพ้ งานของรัฐบาลคือดูแลการเปลี่ยนแปลงนี้และทำให้แน่ใจว่าสหราชอาณาจักรตระหนักถึงผลประโยชน์ทางเศรษฐกิจที่ไม่อาจปฏิเสธได้ในขณะที่ลดความเจ็บป่วยทางสังคมลง เราไม่ควรทำซ้ำการตอบสนองต่อระบบอัตโนมัติในช่วงปี 1980 ซึ่งแนวทางที่ไม่เป็นธรรมมากขึ้นได้ทิ้งกลุ่มการว่างงานเนื่องจากงานเก่าหายไปและผู้คนไม่ได้ปรับตัวเข้ากับบทบาทใหม่
เพื่อความชัดเจนในภาคส่วนใดส่วนหนึ่ง หนึ่งในสาขาที่น่าตื่นเต้นที่สุดในขณะนี้อยู่ในการตั้งค่าทางคลินิก AI กำลังดีขึ้นมากในสองสิ่งที่ต้องอาศัยการฝึกอบรมทางการแพทย์:
หาว่าปัญหาคืออะไรและเสนอแนวทางปฏิบัติ – Google Deepmind เป็นเพียงบริษัทเดียวที่สร้างเครื่องมือที่ช่วยเหลือแพทย์โดยการขุดประวัติทั้งหมดของผู้ป่วยและเปรียบเทียบกับบริษัทอื่นๆ ที่มีอาการคล้ายคลึงกัน
การตรวจจับความผิดปกติและการจดจำภาพ – การทดสอบวินิจฉัยจำนวนมากใช้ภาพหรือตัวอย่างของร่างกาย และอาศัยผู้เชี่ยวชาญ เช่น นักจุลพยาธิวิทยาหรือนักถ่ายภาพรังสีเพื่อระบุปัญหา เช่น เซลล์มะเร็ง บริษัทต่างๆ เช่นpath.aiกำลังเข้าใกล้ระดับความแม่นยำทางคลินิกในการตรวจหามะเร็ง
[NPC4]แต่สิ่งสำคัญของยาคือคุณต้องติดต่อกับผู้คน เมื่อคุณพูดคุยกับแพทย์ พวกเขามักจะระบุว่าพวกเขาสามารถใช้เวลากับผู้ป่วยแต่ละรายได้น้อยเพียงใด (โดยเฉพาะอย่างยิ่งในการดูแลเบื้องต้น) นี่เป็นพื้นที่ที่ผู้คนยังถูก AI เลียอยู่ เราสามารถลงทุนเวลาที่เหลือด้านบนเพื่อให้การดูแลผู้ป่วยแต่ละรายอย่างลึกซึ้งยิ่งขึ้นแบบองค์รวม ในขณะที่แพทย์รู้สึกตื่นเต้นกับศักยภาพของ AIที่จะใช้เป็นเครื่องมือในการวินิจฉัยผู้ป่วยอย่างน้อย35% จะปฏิเสธที่จะรวมการแทรกแซงที่มีอยู่หรือที่จะเกิดขึ้นเร็วๆ นี้อย่างน้อยหนึ่งครั้ง
สิ่งนี้เน้นย้ำถึงความท้าทายที่เราเผชิญในฐานะประเทศ – เพื่อพัฒนาและนำเครื่องมือ AI ที่มีประโยชน์มาใช้ เครื่องมือที่นำมาใช้เพื่อปรับปรุงบริการ และคนที่เคารพขอบเขตของผู้คน
สหราชอาณาจักรอยู่ในตำแหน่งที่ดีที่จะเป็นประเทศที่ได้รับเลือกสำหรับการพัฒนา AI ที่มีจริยธรรม ด้วยทักษะและความทะเยอทะยาน สหราชอาณาจักรสามารถเป็นหนึ่งในผู้ชนะที่ยิ่งใหญ่จากการเปลี่ยนแปลงนี้ เรามีมหาวิทยาลัยชั้นนำอย่างอ็อกซ์ฟอร์ดและเซาแธมป์ตันที่ดึงดูดความคิดที่ดีที่สุดทั้งในและต่างประเทศ ฉากเริ่มต้นที่มีชีวิตชีวาในแมนเชสเตอร์ ลีดส์ บริสตอล และแน่นอนว่าในลอนดอน เรามีฐานอุตสาหกรรมที่แข็งแกร่งในการทำงานด้วย ตัวอย่างเช่น เมื่อเราดูประเทศต่างๆ ทั่วโลก สหราชอาณาจักรอยู่ในอันดับที่ 2 ของโลก (รองจากสิงคโปร์)ว่าการนำ AI ไปใช้ในภาครัฐทำได้ง่ายเพียงใด
จัดการภาคสหราชอาณาจักร AIเป็นการเริ่มต้นที่ดีและคุณมีความสุขกับทีมงานที่มีความสามารถมากในสำนักงานสำหรับ AI คุณมีสถาบันใหม่ๆ เช่น ศูนย์จริยธรรมและนวัตกรรมของข้อมูล อย่างไรก็ตามการวางควบคู่ไปกับการลงทุนของเกาหลีหรือฝรั่งเศสหรือความทะเยอทะยานของจีนหรือสหรัฐอเมริกาก็ดูเจียมเนื้อเจียมตัว ควรเลือกจังหวะและขนาดของการดำเนินการ
นายกรัฐมนตรี เพื่อเก็บเกี่ยวผลประโยชน์อย่างเต็มที่จากการเปลี่ยนแปลงเหล่านี้ มีข้อเสนอแนะบางส่วน:
ก้าวสู่เวทีโลก – ขณะนี้สหรัฐอเมริกาและจีนกำลังดำเนินการดำเนินการในภาคเอกชน ในขณะที่ฝรั่งเศสและแคนาดากำลังเป็นผู้นำระดับนานาชาติในการสร้างกรอบการทำงานด้านจริยธรรมสำหรับ AI ในฐานะที่เป็นมหาอำนาจอิสระระดับโลกที่มีความทะเยอทะยาน สหราชอาณาจักรควรเป็นผู้นำการอภิปรายและสนับสนุนการยอมรับในเศรษฐกิจที่ทะเยอทะยาน
เป็นมากกว่า STEMจากตัวอย่างทางการแพทย์ที่แสดงให้เห็น การนำ AI มาใช้ไม่ได้เพียงแค่สร้างความต้องการสำหรับนักเทคโนโลยีเท่านั้น เน้นทักษะของมนุษย์: ความคิดสร้างสรรค์; ความเข้าอกเข้าใจ; และการเชื่อมต่อ – สิ่งที่เราเรียกว่าความพิเศษของมนุษย์ . ควรทบทวนหลักสูตรและระบบการศึกษาผู้ใหญ่ให้มีความ “พร้อม AI” และเตรียมคนอย่างเหมาะสม
สร้างฐานการวิเคราะห์ที่มั่นคง – AI มีผลกระทบอย่างรวดเร็วและไม่เข้าใจในสังคม คุณควรสร้างการวิจัยพื้นฐานที่รวดเร็วและตอบสนอง เช่น การหาปริมาณผลกระทบของ AI ต่อตลาดแรงงานในแบบเรียลไทม์ เพื่อให้สามารถตัดสินใจบนพื้นฐานของข้อเท็จจริงไม่ใช่สมมติฐาน เพื่อติดตามการยอมรับในภาคส่วนต่างๆ เพื่อให้สามารถปรับการสนับสนุนได้ ผลกระทบของ การตัดสินใจอัตโนมัติในตลาดที่มีการควบคุม ดังนั้นการแทรกแซงจึงทันเวลา ฯลฯ
สร้างความแน่นอนทางกฎหมาย – ศูนย์จริยธรรมของข้อมูลและนวัตกรรมกำลังดำเนินการตรวจสอบปัญหาทางกฎหมายและปัญหาทางสังคมบางอย่างที่เกิดขึ้นจากเทคนิคต่างๆ เช่น การกำหนดเป้าหมายขนาดเล็กหรือในแหล่งที่มาของการตัดสินใจที่ลำเอียงได้เป็นอย่างดี สิ่งที่เราต้องทำคือสร้างกรอบกฎหมายที่ให้ความกระจ่างแก่นักประดิษฐ์เกี่ยวกับสิ่งที่ใช้ได้และสิ่งที่ไม่ควรทำ กรอบการทำงานที่สามารถปรับเปลี่ยนได้อย่างรวดเร็วเมื่อเทคโนโลยีพัฒนาขึ้น
ลงทุนในการนำ AI ไปใช้ทั่วทั้งระบบเศรษฐกิจ – AI เป็นเทคโนโลยีแห่งการเปลี่ยนแปลงที่จะเข้าถึงทุกภาคส่วน แม้ว่าประเทศที่เป็นผู้ผลิตเทคโนโลยีจะมีประโยชน์อย่างไม่ต้องสงสัย แต่สหราชอาณาจักรก็ไม่ควรมองข้ามโอกาสในการนำเทคโนโลยีไปใช้อย่างดีที่สุด นี่หมายถึงการให้ทักษะแก่ผู้คนในการเป็นลูกค้าที่ดี เพื่อทำความเข้าใจว่า AI จะเปิดตัวอย่างไรและเมื่อใด เพื่อสนับสนุนการลงทุนนี้ คุณอาจต้องการชี้แจงกฎเกี่ยวกับเครดิตภาษี R&D และเงินช่วยเหลือทุนเพื่อแสดงว่าการลงทุน AI อยู่ในขอบเขต
มุ่งเน้นที่ยุทธศาสตร์ข้อมูลแห่งชาติ – ข้อมูลเป็นส่วนสำคัญที่ขับเคลื่อนผ่าน AI ด้วยข้อมูลที่สมบูรณ์และทันเวลา ระบบจึงสามารถให้คำแนะนำที่ถูกต้อง โดยไม่มีอคติและความไม่ถูกต้องเข้ามา ยุทธศาสตร์ข้อมูลแห่งชาติเป็นโอกาสในการวางโครงสร้างพื้นฐานข้อมูลที่เหมาะสมเพื่อรองรับการเติบโตทางเศรษฐกิจ เป็นส่วนหนึ่งของการพิจารณา:
[NPC5]การลงทุนในข้อมูลการฝึกอบรม – ชุดข้อมูลการฝึกอบรมจำนวนมากถูกสร้างขึ้นในสหรัฐอเมริกาหรือจีน สหราชอาณาจักรควรเป็นผู้นำในการสร้างชุดข้อมูลที่เป็นตัวแทนอย่างแท้จริงเพื่อสนับสนุนอุตสาหกรรมภายในประเทศในการจัดการกับตลาดโลก
สนับสนุนการทำงานร่วมกัน – Lyft ได้เปิดชุดข้อมูลขนาดใหญ่เกี่ยวกับถนน ป้าย ฯลฯ เพื่อเร่งการพัฒนารถยนต์ไร้คนขับ ควรสนับสนุนรูปแบบการแบ่งปันก่อนการแข่งขันนี้และควรสนับสนุนการพัฒนาข้อมูลที่เชื่อถือได้
ข้อมูลอ้างอิง – บ่อยครั้งข้อมูลเชิงลึกที่ดีที่สุดมาจากการเชื่อมโยงชุดข้อมูลต่างๆ เข้าด้วยกันผ่านตัวระบุที่ใช้ร่วมกัน ฝ่ายบริหารก่อนหน้านี้ได้ทำขั้นตอนเพื่อทำให้สิ่งนี้ง่ายขึ้นผ่านการเปิด ‘ข้อมูลอ้างอิงหลัก’ งานนี้ควรแล้วเสร็จ
ความปลอดภัย – การสร้างระบบที่ซับซ้อนซึ่งสร้างขึ้นจากข้อมูลนั้นยาก และอาจเป็นเรื่องง่าย เช่น ลบการไม่เปิดเผยชื่อ หรือมองข้ามสาเหตุของความลำเอียง ยังคงสนับสนุนความพยายามของ CDEI และ ICO เพื่อสร้างสภาพแวดล้อมที่ปลอดภัยสำหรับนวัตกรรมข้อมูล