Get in my Think Art.

การปกครอง AI: เจาะลึกภารกิจเพื่อให้แน่ใจว่า AI เป็นประโยชน์ต่อมนุษยชาติ

การปกครอง AI: เจาะลึกภารกิจเพื่อให้แน่ใจว่า AI เป็นประโยชน์ต่อมนุษยชาติ

การปกครอง AI: เจาะลึกภารกิจเพื่อให้แน่ใจว่า AI เป็นประโยชน์ต่อมนุษยชาติ

jumbo jili

การเงิน การศึกษา การแพทย์ การเขียนโปรแกรม ศิลปะ — ปัญญาประดิษฐ์ถูกตั้งค่าให้ทำลายเกือบทุกภาคส่วนในสังคมของเรา รัฐบาลและผู้เชี่ยวชาญด้านนโยบายเริ่มตระหนักว่า เพื่อเตรียมพร้อมสำหรับอนาคตนี้ เพื่อลดความเสี่ยงและสร้างความมั่นใจว่า AI จะเป็นประโยชน์ต่อมนุษยชาติ เราต้องเริ่มวางแผนสำหรับการมาถึงของระบบ AI ขั้นสูงในวันนี้

สล็อต

แม้ว่าเราจะยังอยู่ในช่วงเริ่มต้นของการเคลื่อนไหวนี้ แต่ภูมิทัศน์ก็ดูสดใส หลายประเทศและบริษัทอิสระได้เริ่มวางกลยุทธ์และพัฒนานโยบายเพื่อการกำกับดูแล AI แล้ว ปีที่แล้วUAE ได้แต่งตั้งรัฐมนตรีว่าการกระทรวงปัญญาประดิษฐ์คนแรกของโลกและเยอรมนีก็มีขั้นตอนที่เล็กกว่าแต่คล้ายกันในปี 2017 เมื่อคณะกรรมาธิการจริยธรรมของกระทรวงคมนาคมและโครงสร้างพื้นฐานดิจิทัลของเยอรมนีได้พัฒนาแนวปฏิบัติด้านกฎระเบียบชุดแรกของโลกสำหรับระบบอัตโนมัติและ เชื่อมต่อการขับขี่
งานนี้มีความโดดเด่น อย่างไรก็ตาม ความพยายามเหล่านี้ยังไม่ได้รวมกันเป็นกรอบการกำกับดูแลที่ใหญ่ขึ้นซึ่งขยายเกินขอบเขตของชาติ ศูนย์วิจัยปัญญาประดิษฐ์เชิงกลยุทธ์ของ Nick Bostrom พยายามที่จะช่วยในการแก้ไขปัญหานี้ด้วยการทำความเข้าใจและกำหนดรูปแบบภูมิทัศน์เชิงกลยุทธ์ของการพัฒนา AI ในระยะยาวในระดับโลก
การพัฒนากลยุทธ์ระดับโลก: เราอยู่ที่ไหนในทุกวันนี้
ศูนย์วิจัยปัญญาประดิษฐ์เชิงกลยุทธ์ก่อตั้งขึ้นในปี 2558 ด้วยความรู้ที่ว่า ในการหลีกเลี่ยงภัยคุกคามที่เกิดจาก AI อย่างแท้จริง โลกต้องการความพยายามร่วมกันที่มุ่งเน้นการแก้ปัญหาที่ยังไม่ได้แก้ไขที่เกี่ยวข้องกับนโยบายและการพัฒนา AI การกำกับดูแลโครงการ AI (GovAI)ร่วมกำกับโดย Bostrom และ Allan Dafoe เป็นโครงการวิจัยหลักที่วิวัฒนาการมาจากศูนย์แห่งนี้ ภารกิจหลักตามที่กรรมการกำหนดไว้คือ “ตรวจสอบมิติทางการเมือง เศรษฐกิจ การทหาร การปกครอง และจริยธรรมว่ามนุษยชาติจะนำทางไปสู่ระบบ AI ขั้นสูงได้อย่างไร” ในแง่นี้ โปรแกรมมุ่งเน้นไปที่กลยุทธ์ – ในการกำหนดระบบสังคมการเมืองและรัฐบาลที่มีอิทธิพลต่อการวิจัยและพัฒนา AI แทนที่จะมุ่งเน้นไปที่อุปสรรคทางเทคนิคที่ต้องเอาชนะเพื่อสร้างและตั้งโปรแกรม AI ที่ปลอดภัย
เพื่อพัฒนากลยุทธ์ AI ที่ดี โปรแกรมนี้ทำงานร่วมกับนักวิทยาศาสตร์ทางสังคม นักการเมือง ผู้นำองค์กร และวิศวกรด้านปัญญาประดิษฐ์/แมชชีนเลิร์นนิง เพื่อตอบคำถามว่าเราควรจัดการกับความท้าทายในการควบคุมปัญญาประดิษฐ์อย่างไร ในพอดคาสต์ 80,0000 ชั่วโมงล่าสุดกับ Rob Wiblin Dafoe ได้สรุปว่าการวิจัยของทีมมีรูปแบบอย่างไรจากมุมมองที่ใช้งานได้จริง โดยยืนยันว่างานนี้มุ่งเน้นไปที่การตอบคำถามที่อยู่ในหมวดหมู่หลักสามหมวดหมู่:
ภูมิทัศน์ทางเทคนิค:หมวดหมู่นี้พยายามที่จะตอบคำถามทั้งหมดที่เกี่ยวข้องกับแนวโน้มการวิจัยในสาขา AI โดยมีวัตถุประสงค์เพื่อทำความเข้าใจว่าวิถีเทคโนโลยีในอนาคตจะเป็นไปได้อย่างไรและวิถีเหล่านี้ส่งผลต่อความท้าทายในการควบคุมระบบ AI ขั้นสูงอย่างไร
การเมือง AI:หมวดหมู่นี้เน้นที่คำถามที่เกี่ยวข้องกับพลวัตของกลุ่ม บริษัท และรัฐบาลต่าง ๆ ที่แสวงหาผลประโยชน์ของตนเองเกี่ยวกับ AI และพยายามทำความเข้าใจว่าความเสี่ยงใดที่อาจเกิดขึ้นตามมาและเราจะทำอย่างไร ลดความเสี่ยงเหล่านี้
การกำกับดูแล AI:หมวดหมู่นี้ตรวจสอบวิสัยทัศน์เชิงบวกของอนาคตที่มนุษยชาติประสานงานเพื่อควบคุม AI ขั้นสูงในลักษณะที่ปลอดภัยและแข็งแกร่ง สิ่งนี้ทำให้เกิดคำถามเช่นว่ากรอบการทำงานนี้ควรดำเนินการอย่างไรและค่านิยมใดที่เราต้องการที่จะเข้ารหัสในระบบการปกครอง
หมวดหมู่ข้างต้นเป็นแนวทางที่ชัดเจนยิ่งขึ้นในการทำความเข้าใจวัตถุประสงค์ต่างๆ ของผู้ลงทุนในการวิจัยการกำกับดูแลและกลยุทธ์ด้าน AI อย่างไรก็ตาม หมวดหมู่เหล่านี้ค่อนข้างใหญ่ในขอบเขต เพื่อช่วยอธิบายงานที่พวกเขาทำ Jade Leung นักวิจัยของ GovAI และผู้สมัคร DPhil ด้านความสัมพันธ์ระหว่างประเทศที่ University of Oxford ได้สรุปขั้นตอนการทำงานเฉพาะบางอย่างที่ทีมกำลังดำเนินการอยู่
หนึ่งในพื้นที่ที่น่าสนใจที่สุดของการวิจัยคือจีน AI กลยุทธ์ workstream งานวิจัยแนวนี้จะตรวจสอบสิ่งต่างๆ เช่น ความสามารถด้าน AI ของจีนกับประเทศอื่นๆ เอกสารอย่างเป็นทางการเกี่ยวกับนโยบาย AI ของจีน และพลวัตของอำนาจต่างๆ ในประเทศโดยมีจุดมุ่งหมายเพื่อความเข้าใจ ดังที่เหลียงสรุปว่า “ความทะเยอทะยานของจีนที่จะเป็น มหาอำนาจ AI และสถานะของความคิดของจีนในเรื่องความปลอดภัย ความร่วมมือ และ AGI” ในท้ายที่สุด GovAI พยายามที่จะร่างลักษณะสำคัญของกลยุทธ์ AI ของจีน เพื่อทำความเข้าใจหนึ่งในผู้มีบทบาทที่สำคัญที่สุดในการกำกับดูแล AI โปรแกรมการตีพิมพ์ถอดรหัสของจีน AI ฝัน ในเดือนมีนาคม 2018 , รายงานที่วิเคราะห์คุณลักษณะใหม่ของกลยุทธ์ AI แห่งชาติของจีน และมีแผนจะสร้างจากการวิจัยในอนาคตอันใกล้
กระแสงานอีกประการหนึ่งคือFirm-Government Cooperationซึ่งตรวจสอบบทบาทที่บริษัทเอกชนมีต่อการพัฒนา AI ขั้นสูง และวิธีที่ผู้เล่นเหล่านี้มีแนวโน้มที่จะโต้ตอบกับรัฐบาลระดับประเทศ ในการพูดคุยล่าสุดที่EA Global San Franciscoเหลียงเน้นว่าอุตสาหกรรมส่วนตัวมีบทบาทสำคัญในการพัฒนา AI อย่างไร และเหตุใดเมื่อพิจารณาว่าจะควบคุม AI อย่างไร ผู้เล่นส่วนตัวจึงต้องรวมอยู่ในการพิจารณากลยุทธ์เป็นส่วนสำคัญของสมการ คำอธิบายของการพูดคุยสรุปประเด็นสำคัญๆ อย่างกระชับ โดยสังเกตว่า “บริษัทเอกชนเป็นเพียงผู้มีบทบาทสำคัญเท่านั้นที่แสดงความทะเยอทะยานที่จะพัฒนา AGI และเป็นผู้นำในการวิจัย AI ขั้นสูงที่ทันสมัย ดังนั้นจึงเป็นเรื่องสำคัญที่จะต้องพิจารณาว่าบริษัทเอกชนเหล่านี้ควรมีส่วนร่วมในอนาคตของการกำกับดูแล AI อย่างไร”

สล็อตออนไลน์

งานอื่น ๆ ที่เหลียงเน้น ได้แก่ การสร้างแบบจำลองพลวัตของการแข่งขันทางเทคโนโลยีและการวิเคราะห์การกระจายความสามารถด้าน AI และฮาร์ดแวร์ทั่วโลก
ถนนข้างหน้า
เมื่อถูกถามว่าเธอมีความมั่นใจเพียงใดว่าในที่สุดนักวิจัย AI จะรวมตัวกันและประสบความสำเร็จในความพยายามของพวกเขาในการกำหนดภูมิทัศน์ของการพัฒนา AI ในระยะยาวในระดับสากล เหลียงก็ระมัดระวังในการตอบสนองของเธอ โดยสังเกตว่าต้องใช้มือมากขึ้น “จำเป็นต้องมีนักวิจัยจำนวนมากขึ้นเพื่อจัดการกับคำถามเหล่านี้อย่างแน่นอน ในฐานะพื้นที่การวิจัยและการดำเนินการตามนโยบาย การกำกับดูแล AI ที่ปลอดภัยและแข็งแกร่งในระยะยาวยังคงเป็นภารกิจที่ถูกละเลย” เธอกล่าว
นอกจากนี้ เหลียงยังตั้งข้อสังเกตว่า ในช่วงหัวเลี้ยวหัวต่อนี้ แม้ว่าการวิจัยที่เป็นรูปธรรมกำลังดำเนินการอยู่แล้ว แต่งานจำนวนมากมุ่งเน้นไปที่ประเด็นกรอบที่เกี่ยวข้องกับการกำกับดูแล AI และในการทำเช่นนั้นเผยให้เห็นถึงหนทางต่างๆ ที่ต้องการการวิจัย ด้วยเหตุนี้ ทีมงานจึงยังไม่มีคำแนะนำที่เป็นรูปธรรมสำหรับการดำเนินการเฉพาะที่หน่วยงานกำกับดูแลควรกระทำ เนื่องจากจำเป็นต้องมีการวิเคราะห์พื้นฐานเพิ่มเติม “เราไม่มีข้อเสนอแนะเชิงนโยบายที่แข็งแกร่งและเป็นรูปธรรมเพียงพอสำหรับระยะเวลาอันใกล้นี้ เนื่องจากระดับความไม่แน่นอนเกี่ยวกับปัญหานี้” เธอกล่าว
อย่างไรก็ตาม ทั้งเหลียงและเดโฟต่างก็มองโลกในแง่ดีและยืนยันว่าช่องว่างข้อมูลนี้มีแนวโน้มว่าจะเปลี่ยนแปลง — และรวดเร็ว นักวิจัยจากหลากหลายสาขาวิชาเริ่มตระหนักถึงความสำคัญของหัวข้อนี้มากขึ้นเรื่อยๆ และเมื่อมีบุคคลจำนวนมากขึ้นเริ่มค้นคว้าและมีส่วนร่วมในชุมชนนี้ ช่องทางการวิจัยต่างๆ จะมุ่งเน้นมากขึ้น “ในอีก 2 ปีข้างหน้า เราน่าจะมีชุมชนวิจัยจำนวนมากขึ้น แต่วันนี้ เราเพิ่งค้นพบว่าปัญหาใดที่สำคัญและติดตามได้มากที่สุด และเราจะสรรหาบุคลากรเพื่อแก้ไขปัญหาเหล่านั้นได้อย่างไร” Dafoe กล่าวกับ Wiblin
การรับรองว่าชุมชนที่แข็งแกร่งขึ้นน่าจะก่อตัวขึ้นในไม่ช้านี้ถือเป็นกำลังใจ อย่างไรก็ตาม คำถามยังคงมีอยู่ว่าชุมชนนี้จะมีเวลาเพียงพอในการพัฒนากรอบธรรมาภิบาลที่มั่นคงหรือไม่ ตามที่ Dafoe ตั้งข้อสังเกต เราไม่เคยเห็นการระเบิดของข่าวกรองมาก่อน ดังนั้นเราจึงไม่มีตัวอย่างที่จะมองหาคำแนะนำเมื่อพยายามพัฒนาการคาดการณ์และไทม์ไลน์เกี่ยวกับเวลาที่เราจะมีระบบ AI ขั้นสูง
ท้ายที่สุด การขาดการคาดการณ์คือเหตุผลที่เราต้องลงทุนอย่างมากในการวิจัยกลยุทธ์ AI ในอนาคตอันใกล้ ดังที่ Bostrom ระบุไว้ในSuperintelligence: Paths, Dangers, and Strategiesว่า AI ไม่ได้เป็นเพียงเทคโนโลยีที่ก่อกวน แต่มีแนวโน้มว่าเทคโนโลยีที่ก่อกวนที่สุดที่มนุษยชาติจะเคยพบเจอ: “[Superintelligence] อาจเป็นความท้าทายที่สำคัญและน่ากลัวที่สุดที่มนุษยชาติเคยมีมา เผชิญ และไม่ว่าเราจะประสบความสำเร็จหรือล้มเหลว อาจเป็นความท้าทายสุดท้ายที่เราจะเผชิญ”
เทคโนโลยี “ทำให้ถูกต้อง” หมายความว่าอย่างไร และเหตุใดบริษัทเทคโนโลยีจึงเพิกเฉยต่อความเสี่ยงในระยะยาวในการวิจัยของพวกเขา เราจะสร้างสมดุลระหว่างความเสี่ยงด้าน AI ระยะสั้นและระยะยาวได้อย่างไร และในขณะที่บริษัทเทคโนโลยีมีอำนาจมากขึ้น เราจะแน่ใจได้อย่างไรว่าสาธารณชนมีสิทธิ์กำหนดอนาคตโดยรวมของเรา
เพื่อหารือถึงวิธีที่เราจะเตรียมรับความเสี่ยงทางสังคมได้ดีที่สุด Ariel ได้พูดคุยกับ Andrew Maynard และ Jack Stilgoe ในพอดคาสต์ของเดือนนี้ แอนดรูว์เป็นหัวหน้าห้องทดลองนวัตกรรมความเสี่ยงในโรงเรียนแห่งมหาวิทยาลัยแห่งรัฐแอริโซนาเพื่ออนาคตของนวัตกรรมในสังคมโดยงานของเขามุ่งเน้นไปที่การสำรวจว่าเทคโนโลยีที่เกิดขึ้นใหม่และการบรรจบกันสามารถพัฒนาและใช้งานอย่างมีความรับผิดชอบในโลกที่ซับซ้อนมากขึ้นได้อย่างไร แจ็คเป็นอาจารย์อาวุโสด้านการศึกษาวิทยาศาสตร์และเทคโนโลยีที่มหาวิทยาลัยคอลเลจลอนดอน ซึ่งเขาทำงานเกี่ยวกับนโยบายวิทยาศาสตร์และนวัตกรรมโดยมีความสนใจเป็นพิเศษในเทคโนโลยีเกิดใหม่

jumboslot

หลักฐานดังต่อไปนี้ได้รับการแก้ไขสำหรับความกะทัดรัด แต่คุณฟังพอดคาสต์ดังกล่าวข้างต้นหรืออ่านการถอดเสียงเต็มได้ที่นี่
Ariel: ก่อนที่เราจะพูดถึงเรื่องอื่น คุณช่วยกำหนดก่อนว่าความเสี่ยงคืออะไร?
แอนดรูว์: คำจำกัดความอย่างเป็นทางการของความเสี่ยงคือการพิจารณาถึงศักยภาพของบางสิ่งที่จะก่อให้เกิดอันตราย แต่ก็พิจารณาถึงความน่าจะเป็นด้วย สมมติว่าคุณกำลังดูการสัมผัสกับสารเคมี ความเสี่ยงทั้งหมดเกี่ยวกับธรรมชาติที่เป็นอันตรายของสารเคมีนั้น ศักยภาพในการก่อให้เกิดความเสียหายต่อสิ่งแวดล้อมหรือร่างกายมนุษย์ . นั่นเป็นเรื่องปกติที่เราคิดเกี่ยวกับความเสี่ยงเมื่อเราดูการควบคุมสิ่งต่างๆ
ที่จริงแล้ว ฉันคิดเกี่ยวกับความเสี่ยงต่างกันเล็กน้อย เพราะแนวคิดเรื่องความเสี่ยงนั้นหมดเร็วมาก โดยเฉพาะอย่างยิ่งเมื่อคุณต้องรับมือกับความไม่แน่นอน ความเสี่ยงที่มีอยู่ และการรับรู้เกี่ยวกับความเสี่ยงเมื่อผู้คนพยายามตัดสินใจอย่างหนักและพวกเขาทำไม่ได้ ความรู้สึกของข้อมูลที่พวกเขากำลังได้รับ ดังนั้นฉันจึงมักจะคิดว่าความเสี่ยงเป็นภัยคุกคามต่อสิ่งที่สำคัญหรือมีค่า สิ่งที่มีค่านั้นอาจเป็นสุขภาพของคุณ อาจเป็นสิ่งแวดล้อม แต่อาจเป็นงานของคุณ อาจเป็นความรู้สึกถึงจุดประสงค์ หรือความรู้สึกในตัวตนของคุณ หรือความเชื่อของคุณ หรือศาสนาของคุณ หรือการเมืองของคุณ หรือโลกทัศน์ของคุณ
ทันทีที่เราเริ่มคิดถึงความเสี่ยงในแง่นั้น ความเสี่ยงจะกว้างขึ้น ซับซ้อนขึ้นมาก แต่ยังช่วยให้เราสำรวจจุดตัดระหว่างชุมชนต่างๆ กับแนวคิดต่างๆ ของพวกเขาเกี่ยวกับสิ่งที่สำคัญและควรค่าแก่การปกป้อง
แจ็ค: ฉันจะดึงความสนใจไปที่ทุกสิ่งที่ไม่สามารถคำนวณได้ เมื่อเรากำลังเผชิญกับเทคโนโลยีใหม่ๆ เทคโนโลยีเหล่านี้มักจะเป็นสิ่งที่เราไม่สามารถกำหนดความน่าจะเป็นได้ และเราไม่รู้มากนักเกี่ยวกับผลลัพธ์ที่น่าจะเป็นไปได้
ฉันคิดว่ายังมีคำถามเกี่ยวกับสิ่งที่ไม่ถูกจับเมื่อเราพูดถึงความเสี่ยง ผลกระทบของเทคโนโลยีอาจไม่ถือเป็นผลกระทบด้านความเสี่ยงทั้งหมด ฉันจะบอกว่าเราควรใส่ใจกับทุกสิ่งที่ไม่เกี่ยวกับเทคโนโลยีที่ผิดพลาด แต่ยังเกี่ยวข้องกับเทคโนโลยีที่ถูกต้องด้วย เทคโนโลยีไม่เพียงแต่สร้างความเสี่ยงใหม่ๆ แต่ยังเป็นประโยชน์ต่อบางคนมากกว่าคนอื่นๆ และสามารถสร้างความไม่เท่าเทียมมหาศาลได้ หากได้รับการกำกับดูแลอย่างดี พวกเขาก็สามารถช่วยความไม่เท่าเทียมกันได้อย่างใกล้ชิด แต่ถ้าเราเน้นที่ความเสี่ยง เราก็จะสูญเสียข้อกังวลอื่นๆ เหล่านั้นไปด้วย
แอนดรูว์: แจ็ค เห็นได้ชัดว่าสิ่งนี้ทำให้ฉันสนใจมาก เพราะสำหรับฉันแล้ว ความเหลื่อมล้ำเป็นภัยคุกคามต่อสิ่งที่สำคัญสำหรับใครบางคน คุณมีตัวอย่างเฉพาะเจาะจงเกี่ยวกับสิ่งที่คุณคิดเมื่อคุณนึกถึงความไม่เท่าเทียมกันหรือช่องว่างความเท่าเทียมกันหรือไม่?
แจ็ค: ก่อนที่เราจะยกตัวอย่าง สิ่งสำคัญคือต้องคำนึงถึงแนวโน้มของเทคโนโลยี ซึ่งก็คือเทคโนโลยีมีแนวโน้มที่จะเป็นประโยชน์ต่อผู้มีอำนาจ นั่นเป็นแนวโน้มโดยรวมก่อนที่เราจะพูดถึงเรื่องเฉพาะใด ๆ ซึ่งมักจะขัดกับวาทศิลป์ของการเปลี่ยนแปลงทางเทคโนโลยี เพราะบ่อยครั้งที่เทคโนโลยีถูกขายเป็นการปลดปล่อยและช่วยเหลือสิ่งที่เลวร้ายที่สุดในสังคม – ซึ่งพวกเขาทำ แต่โดยทั่วไปพวกเขายังช่วยให้ ดียิ่งขึ้นไปอีก มีคำถามทั่วไปว่า
ฉันคิดว่าโดยเฉพาะเจาะจง เราสามารถพูดคุยเกี่ยวกับเทคโนโลยีประเภทใดที่สร้างความไม่เท่าเทียมกันอย่างใกล้ชิด และมีแนวโน้มว่าจะทำให้ความไม่เท่าเทียมกันรุนแรงขึ้น แต่สำหรับฉันแล้วดูเหมือนว่าการนิยามว่าเป็นความเสี่ยงทางสังคมยังไม่ค่อยจะไปถึงจุดนั้น
เอเรียล: ฉันจะพิจารณาว่าการเพิ่มความไม่เท่าเทียมกันเป็นความเสี่ยง พวกคุณช่วยพูดคุยเกี่ยวกับสาเหตุที่ยากต่อการตกลงในสิ่งที่เรากำหนดเป็นความเสี่ยงจริง ๆ ได้ไหม?
แอนดรูว์: ผู้คนมักจะหลุดเข้าไปในการกำหนดความเสี่ยงด้วยวิธีที่สะดวกมาก ดังนั้นหากคุณมีบริษัทหรือองค์กรที่ต้องการทำบางสิ่งจริงๆ และการทำบางสิ่งนั้นอาจเป็นหนทางจากการทำเงินจำนวนมากไปจนถึงการเปลี่ยนแปลงโลกในวิธีที่พวกเขาคิดว่าดี มีแนวโน้มที่พวกเขาจะทำ กำหนดความเสี่ยงในลักษณะที่เป็นประโยชน์ต่อพวกเขา
ตัวอย่างเช่น หากคุณเป็นผู้ผลิตยาราคาแพงอย่างเหลือเชื่อ และคุณพบว่ายานั้นจะมีประโยชน์ในทางใดทางหนึ่ง โดยมีผลข้างเคียงเพียงเล็กน้อย แต่จะใช้ได้เฉพาะกับคนรวยเพียงไม่กี่คนเท่านั้น ของผู้คน คุณสามารถกำหนดความเสี่ยงได้อย่างง่ายดายในแง่ของสิ่งที่ยาของคุณไม่ได้ทำ ดังนั้นคุณสามารถอ้างสิทธิ์ด้วยความมั่นใจว่านี่เป็นผลิตภัณฑ์ที่ปราศจากความเสี่ยงหรือมีความเสี่ยงต่ำ แต่นั่นเป็นแนวทางที่คุณจะหาว่าผลิตภัณฑ์ของคุณมีความเสี่ยงตรงไหน และคุณฝังมันไว้ และคุณมุ่งเน้นไปที่สิ่งที่คุณคิดว่าไม่มีความเสี่ยงกับผลิตภัณฑ์ของคุณ
การเรียงลำดับดังกล่าวขยายออกไปในหลาย ๆ ด้าน – แนวโน้มที่จะฝังความเสี่ยงใหญ่ที่เกี่ยวข้องกับเทคโนโลยีใหม่และเน้นความเสี่ยงต่ำเพื่อทำให้เทคโนโลยีของคุณดูดีกว่าที่เป็นอยู่มาก เพื่อให้คุณบรรลุเป้าหมายที่คุณพยายามทำ บรรลุ.
[NPC5]แจ็ค: ฉันค่อนข้างเห็นด้วย แอนดรูว์ ฉันคิดว่าสิ่งที่มีแนวโน้มจะเกิดขึ้นคือ คำจำกัดความของความเสี่ยงได้รับการทำให้สังคมกลายเป็นสิ่งที่สังคมคิดได้ ในขณะที่ผลประโยชน์ถูกแปรรูปเป็นของรัฐ นักประดิษฐ์อยู่ที่นั่นเพื่อกำหนดว่าใครได้ประโยชน์และในรูปแบบใด
แอนดรู: ฉันจะเห็นด้วย แม้ว่ามันจะค่อนข้างซับซ้อนในแง่ของบทสนทนาทางสังคมเกี่ยวกับเรื่องนั้นและใครคือส่วนหนึ่งของบทสนทนาเหล่านั้นและใครเป็นผู้พูดในบทสนทนาเหล่านั้น
เพื่อกลับไปสู่ประเด็นของคุณ Ariel ฉันคิดว่ามีองค์กรและบุคคลจำนวนมากที่ต้องการทำในสิ่งที่พวกเขาคิดว่าเป็นสิ่งที่ถูกต้อง แต่พวกเขายังต้องการความสามารถในการตัดสินใจด้วยตัวเองว่าอะไรคือสิ่งที่ถูกต้องมากกว่าที่จะฟังคนอื่น