Get in my Think Art.

สรุปปัญหาที่เป็นรูปธรรมในความปลอดภัยของ AI

สรุปปัญหาที่เป็นรูปธรรมในความปลอดภัยของ AI

สรุปปัญหาที่เป็นรูปธรรมในความปลอดภัยของ AI

jumbo jili

เกือบสองปีแล้วที่นักวิจัยจาก Google, Stanford, UC Berkeley และ OpenAI เผยแพร่บทความเรื่อง “Concrete Problems in AI Safety” แต่ก็ยังเป็นหนึ่งในส่วนที่สำคัญที่สุดในความปลอดภัยของ AI แม้จะผ่านไปสองปีแล้ว ก็ยังเป็นการแนะนำที่ดีถึงปัญหาบางอย่างที่นักวิจัยเผชิญในขณะที่พวกเขาพัฒนาปัญญาประดิษฐ์ ในบทความนี้ ผู้เขียนสำรวจปัญหาการเกิดอุบัติเหตุ— พฤติกรรมที่ไม่ได้ตั้งใจและเป็นอันตราย — ในระบบ AI และพวกเขาจะหารือเกี่ยวกับกลยุทธ์ที่แตกต่างกันและความพยายามในการวิจัยอย่างต่อเนื่องเพื่อป้องกันปัญหาที่อาจเกิดขึ้นเหล่านี้ โดยเฉพาะอย่างยิ่ง ผู้เขียนกล่าวถึง — การหลีกเลี่ยงผลข้างเคียงเชิงลบ, การแฮ็กรางวัล, การกำกับดูแลที่ปรับขนาดได้, การสำรวจอย่างปลอดภัย และความทนทานต่อการเปลี่ยนแปลงการกระจาย — ซึ่งแสดงให้เห็นด้วยตัวอย่างของหุ่นยนต์ที่ได้รับการฝึกฝนให้ทำความสะอาดสำนักงาน

สล็อต

เราทบทวน 5 หัวข้อนี้อีกครั้ง โดยสรุปจากบทความ เพื่อเป็นการเตือนว่าปัญหาเหล่านี้ยังคงเป็นประเด็นสำคัญที่นักวิจัย AI กำลังทำงานเพื่อแก้ไข
หลีกเลี่ยงผลข้างเคียงเชิงลบ
เมื่อออกแบบฟังก์ชันวัตถุประสงค์สำหรับระบบ AI ผู้ออกแบบจะระบุวัตถุประสงค์แต่ไม่ได้ระบุขั้นตอนที่แน่นอนเพื่อให้ระบบปฏิบัติตาม ซึ่งช่วยให้ระบบ AI สามารถสร้างกลยุทธ์ที่แปลกใหม่และมีประสิทธิภาพมากขึ้นเพื่อให้บรรลุเป้าหมาย
แต่ถ้าฟังก์ชั่นวัตถุประสงค์ไม่ชัดเจน ความสามารถของ AI ในการพัฒนากลยุทธ์ของตัวเองสามารถนำไปสู่ผลข้างเคียงที่เป็นอันตรายโดยไม่ได้ตั้งใจ พิจารณาหุ่นยนต์ที่มีจุดประสงค์เพื่อย้ายกล่องจากห้องหนึ่งไปยังอีกห้องหนึ่ง วัตถุประสงค์ดูเหมือนง่าย แต่ก็มีหลายวิธีที่อาจผิดพลาดได้ ตัวอย่างเช่น ถ้าแจกันอยู่ในเส้นทางของหุ่นยนต์ หุ่นยนต์อาจล้มลงเพื่อให้บรรลุเป้าหมาย เนื่องจากฟังก์ชั่นวัตถุประสงค์ไม่ได้กล่าวถึงอะไรเกี่ยวกับแจกัน หุ่นยนต์จึงไม่รู้ว่าควรหลีกเลี่ยง ผู้คนมองว่านี่เป็นสามัญสำนึก แต่ระบบ AI ไม่ได้แบ่งปันความเข้าใจของเราเกี่ยวกับโลก ยังไม่เพียงพอที่จะกำหนดวัตถุประสงค์เป็น “ภารกิจ X” ที่สมบูรณ์ ผู้ออกแบบยังต้องระบุเกณฑ์ความปลอดภัยที่งานจะเสร็จสมบูรณ์
วิธีแก้ปัญหาง่ายๆ วิธีหนึ่งคือการลงโทษหุ่นยนต์ทุกครั้งที่มีผลกระทบต่อ “สิ่งแวดล้อม” เช่น ทุบแจกันล้มหรือเกาพื้นไม้ อย่างไรก็ตาม กลยุทธ์นี้สามารถทำให้หุ่นยนต์เป็นกลางได้อย่างมีประสิทธิภาพ ทำให้มันไร้ประโยชน์ เนื่องจากการกระทำทั้งหมดต้องการปฏิสัมพันธ์กับสิ่งแวดล้อมในระดับหนึ่ง (และด้วยเหตุนี้จึงส่งผลกระทบต่อสิ่งแวดล้อม) กลยุทธ์ที่ดีกว่าคือการกำหนด “งบประมาณ” สำหรับจำนวนระบบ AI ที่ได้รับอนุญาตให้ส่งผลกระทบต่อสิ่งแวดล้อม สิ่งนี้จะช่วยลดผลกระทบที่ไม่ได้ตั้งใจให้เหลือน้อยที่สุด โดยไม่ทำให้ระบบ AI เป็นกลาง นอกจากนี้ กลยุทธ์ในการจัดทำงบประมาณผลกระทบของตัวแทนนั้นเป็นเรื่องทั่วไปและสามารถนำมาใช้ซ้ำได้ในหลาย ๆ งาน ตั้งแต่การทำความสะอาดไปจนถึงการขับรถไปจนถึงธุรกรรมทางการเงิน ไปจนถึงสิ่งอื่นใดที่ระบบ AI อาจทำได้
อีกวิธีหนึ่งคือการฝึกอบรมตัวแทนให้รับรู้ถึงผลข้างเคียงที่เป็นอันตราย เพื่อที่จะสามารถหลีกเลี่ยงการกระทำที่นำไปสู่ผลข้างเคียงดังกล่าวได้ ในกรณีนั้น ตัวแทนจะได้รับการฝึกอบรมสำหรับสองงาน: งานเดิมที่ระบุโดยฟังก์ชันวัตถุประสงค์และงานการรับรู้ผลข้างเคียง แนวคิดหลักในที่นี้คือ งานสองงานอาจมีผลข้างเคียงที่คล้ายคลึงกันมาก แม้ว่าวัตถุประสงค์หลักจะแตกต่างกันหรือแม้กระทั่งเมื่อทำงานในสภาพแวดล้อมที่แตกต่างกัน ตัวอย่างเช่น ทั้งหุ่นยนต์ทำความสะอาดบ้านและหุ่นยนต์ทาสีบ้านไม่ควรเคาะแจกันขณะทำงาน ในทำนองเดียวกัน หุ่นยนต์ทำความสะอาดไม่ควรทำให้พื้นเสียหายไม่ว่าจะทำงานในโรงงานหรือในบ้านก็ตาม ข้อได้เปรียบหลักของแนวทางนี้คือ เมื่อตัวแทนเรียนรู้ที่จะหลีกเลี่ยงผลข้างเคียงจากงานหนึ่งแล้ว ตัวแทนก็จะสามารถนำความรู้นี้ไปใช้เมื่อได้รับการฝึกอบรมในงานอื่น
แม้ว่าการออกแบบแนวทางเพื่อจำกัดผลข้างเคียงจะมีประโยชน์ แต่กลยุทธ์เหล่านี้ยังไม่เพียงพอ ระบบ AI ยังคงต้องผ่านการทดสอบอย่างละเอียดและประเมินผลที่สำคัญก่อนที่จะนำไปใช้จริงในการตั้งค่าจริง
แฮ็ครางวัล
บางครั้ง AI อาจสร้าง “การแฮ็ก” หรือช่องโหว่บางอย่างในการออกแบบระบบเพื่อรับรางวัลที่ยังไม่ได้รับ เนื่องจาก AI ได้รับการฝึกฝนเพื่อให้ได้รับผลตอบแทนสูงสุด การมองหาช่องโหว่และ “ทางลัด” ดังกล่าวจึงเป็นกลยุทธ์ที่ยุติธรรมและสมเหตุสมผลสำหรับ AI ตัวอย่างเช่น สมมติว่าหุ่นยนต์ทำความสะอาดสำนักงานได้รับรางวัลก็ต่อเมื่อไม่เห็นขยะในสำนักงานเท่านั้น แทนที่จะทำความสะอาดสถานที่ หุ่นยนต์สามารถปิดเซ็นเซอร์ภาพและบรรลุเป้าหมายที่ไม่เห็นขยะได้ แต่นี่เป็นความสำเร็จที่ผิดพลาดอย่างชัดเจน ความพยายามดังกล่าวในการ “เล่นเกม” ระบบมีแนวโน้มที่จะปรากฏชัดในระบบที่ซับซ้อนด้วยรางวัลที่กำหนดไว้อย่างคลุมเครือ ระบบที่ซับซ้อนช่วยให้ตัวแทนมีปฏิสัมพันธ์กับสิ่งแวดล้อมได้หลายวิธี ซึ่งจะทำให้ตัวแทนมีอิสระมากขึ้น
เช่นเดียวกับปัญหาผลข้างเคียงที่เป็นลบ ปัญหานี้ยังเป็นการรวมตัวกันของการระบุวัตถุประสงค์ที่ผิด วัตถุประสงค์ที่เป็นทางการหรือเป้าหมายสุดท้ายสำหรับ AI นั้นไม่ได้กำหนดไว้อย่างดีพอที่จะจับ “เจตนา” ที่ไม่เป็นทางการที่อยู่เบื้องหลังการสร้างระบบ นั่นคือ สิ่งที่นักออกแบบต้องการให้ระบบทำจริงๆ ในบางกรณี ความคลาดเคลื่อนนี้นำไปสู่ผลลัพธ์ที่ไม่เหมาะสม (เมื่อหุ่นยนต์ทำความสะอาดปิดเซ็นเซอร์ภาพ) ในกรณีอื่น ๆ มันนำไปสู่ผลลัพธ์ที่เป็นอันตราย (เมื่อหุ่นยนต์ทำความสะอาดล้มแจกัน)
แนวทางหนึ่งที่เป็นไปได้ในการบรรเทาปัญหานี้คือการมี “ตัวแทนรางวัล” ซึ่งมีหน้าที่เพียงอย่างเดียวคือการทำเครื่องหมายว่ารางวัลที่มอบให้กับตัวแทนการเรียนรู้นั้นถูกต้องหรือไม่ ตัวแทนให้รางวัลทำให้แน่ใจว่าตัวแทนการเรียนรู้ (หุ่นยนต์ทำความสะอาดในตัวอย่างของเรา) ไม่ได้ใช้ประโยชน์จากระบบ แต่จะบรรลุวัตถุประสงค์ที่ต้องการ ในตัวอย่างก่อนหน้านี้ “ตัวแทนรางวัล” สามารถฝึกโดยนักออกแบบที่เป็นมนุษย์เพื่อตรวจสอบว่าห้องนั้นมีขยะหรือไม่ (ง่ายกว่าการทำความสะอาดห้อง) หากหุ่นยนต์ทำความสะอาดปิดเซ็นเซอร์ภาพและเรียกร้องรางวัลสูง “ตัวแทนรางวัล” จะทำเครื่องหมายรางวัลว่าไม่ถูกต้อง นักออกแบบสามารถดูรางวัลที่ทำเครื่องหมายว่า “ไม่ถูกต้อง” และทำการเปลี่ยนแปลงที่จำเป็นในฟังก์ชันวัตถุประสงค์เพื่อแก้ไขช่องโหว่
การกำกับดูแลที่ปรับขนาดได้
เมื่อตัวแทนกำลังเรียนรู้ที่จะทำงานที่ซับซ้อน การกำกับดูแลของมนุษย์และผลตอบรับจะมีประโยชน์มากกว่าแค่การให้รางวัลจากสิ่งแวดล้อม โดยทั่วไปแล้ว รางวัลจะถูกจำลองในลักษณะที่สื่อถึงขอบเขตของงานที่ทำสำเร็จ แต่มักจะไม่ให้ข้อเสนอแนะที่เพียงพอเกี่ยวกับความปลอดภัยจากการกระทำของตัวแทน แม้ว่าตัวแทนจะทำภารกิจสำเร็จ แต่ก็อาจไม่สามารถสรุปผลข้างเคียงของการกระทำจากรางวัลเพียงอย่างเดียวได้ ในสภาวะแวดล้อมที่เหมาะสม มนุษย์จะคอยดูแลและให้ข้อเสนอแนะที่ละเอียดถี่ถ้วนทุกครั้งที่เจ้าหน้าที่ดำเนินการ แม้ว่าสิ่งนี้จะให้มุมมองที่มีข้อมูลมากขึ้นเกี่ยวกับสภาพแวดล้อมแก่ตัวแทน แต่กลยุทธ์ดังกล่าวจะต้องใช้เวลาและความพยายามจากมนุษย์มากเกินไป

สล็อตออนไลน์

แนวทางการวิจัยที่มีแนวโน้มว่าจะแก้ไขปัญหานี้คือการเรียนรู้กึ่งควบคุมโดยที่ตัวแทนยังคงได้รับการประเมินในการดำเนินการ (หรืองาน) ทั้งหมด แต่จะได้รับรางวัลเฉพาะตัวอย่างเล็กๆ ของการกระทำ (หรืองาน) เหล่านั้น ตัวอย่างเช่น หุ่นยนต์ทำความสะอาดจะดำเนินการต่าง ๆ ในการทำความสะอาดห้อง หากหุ่นยนต์ดำเนินการที่เป็นอันตราย เช่น ทำให้พื้นเสียหาย หุ่นยนต์จะได้รับรางวัลเชิงลบสำหรับการกระทำนั้น ๆ เมื่องานเสร็จสิ้น หุ่นยนต์จะถูกประเมินผลโดยรวมของการกระทำทั้งหมดของมัน (และไม่ได้รับการประเมินเป็นรายบุคคลสำหรับการกระทำแต่ละอย่าง เช่น การหยิบสิ่งของจากพื้น) และได้รับรางวัลตามประสิทธิภาพโดยรวม
ทิศทางการวิจัยที่มีแนวโน้มดีอีกประการหนึ่งคือการเรียนรู้การเสริมแรงแบบลำดับชั้นโดยจะมีการสร้างลำดับชั้นระหว่างตัวแทนการเรียนรู้ต่างๆ แนวคิดนี้สามารถนำไปใช้กับหุ่นยนต์ทำความสะอาดได้ดังนี้ จะมีหุ่นยนต์ผู้บังคับบัญชาซึ่งมีหน้าที่มอบหมายงานบางอย่าง (เช่น งานในการทำความสะอาดห้องใดห้องหนึ่งโดยเฉพาะ) ให้กับหุ่นยนต์ทำความสะอาดและให้ข้อเสนอแนะและรางวัลแก่หุ่นยนต์นั้น หุ่นยนต์ผู้ควบคุมดูแลดำเนินการเองเพียงเล็กน้อย – กำหนดห้องให้กับหุ่นยนต์ทำความสะอาด ตรวจสอบว่าห้องสะอาดหรือไม่และให้ข้อเสนอแนะ – และไม่ต้องการข้อมูลรางวัลจำนวนมากเพื่อการฝึกอบรมอย่างมีประสิทธิภาพ หุ่นยนต์ทำความสะอาดทำงานที่ซับซ้อนมากขึ้นในการทำความสะอาดห้อง และได้รับคำติชมบ่อยครั้งจากหุ่นยนต์ผู้บังคับบัญชา หุ่นยนต์หัวหน้างานตัวเดียวกันอาจมองข้ามการฝึกอบรมสารทำความสะอาดหลายตัวเช่นกัน ตัวอย่างเช่น, หุ่นยนต์หัวหน้างานสามารถมอบหมายงานให้กับหุ่นยนต์ทำความสะอาดแต่ละตัวและให้รางวัล/คำติชมแก่พวกเขาโดยตรง หุ่นยนต์ผู้บังคับบัญชาสามารถดำเนินการเชิงนามธรรมได้เพียงเล็กน้อยเท่านั้น จึงสามารถเรียนรู้จากรางวัลที่กระจัดกระจายได้
การสำรวจอย่างปลอดภัย
ส่วนสำคัญของการฝึกอบรมตัวแทน AI คือการตรวจสอบให้แน่ใจว่าได้สำรวจและเข้าใจสภาพแวดล้อมของตน แม้ว่าการสำรวจสภาพแวดล้อมอาจดูเหมือนเป็นกลยุทธ์ที่ไม่ดีในระยะสั้น แต่อาจเป็นกลยุทธ์ที่มีประสิทธิภาพมากในระยะยาว ลองนึกภาพว่าหุ่นยนต์ทำความสะอาดได้เรียนรู้ที่จะระบุขยะ มันเก็บขยะชิ้นหนึ่ง เดินออกจากห้อง โยนทิ้งลงถังขยะข้างนอก กลับเข้ามาในห้อง มองหาขยะอีกชิ้นแล้วทำซ้ำ แม้ว่ากลยุทธ์นี้จะได้ผล แต่ก็อาจมีอีกกลยุทธ์หนึ่งที่ใช้ได้ผลดียิ่งขึ้นไปอีก หากเจ้าหน้าที่ใช้เวลาสำรวจสภาพแวดล้อม อาจพบว่ามีถังขยะขนาดเล็กอยู่ภายในห้อง แทนที่จะไปๆมาๆทีละชิ้น ตัวแทนสามารถเก็บขยะทั้งหมดลงในถังขยะขนาดเล็กก่อนแล้วจึงเดินทางครั้งเดียวเพื่อทิ้งขยะลงในถังขยะภายนอก เว้นแต่ตัวแทนจะได้รับการออกแบบมาเพื่อสำรวจสภาพแวดล้อมของตน จะไม่ค้นพบกลยุทธ์ที่ช่วยประหยัดเวลาเหล่านี้
แต่ในขณะสำรวจ เจ้าหน้าที่อาจดำเนินการบางอย่างที่อาจสร้างความเสียหายให้กับตัวเองหรือสิ่งแวดล้อม ตัวอย่างเช่น หุ่นยนต์ทำความสะอาดเห็นคราบบนพื้น แทนที่จะทำความสะอาดคราบด้วยการถูด้วยไม้ม็อบ เจ้าหน้าที่จึงตัดสินใจลองใช้กลยุทธ์ใหม่ มันพยายามขูดคราบด้วยแปรงลวดและทำให้พื้นในกระบวนการเสียหาย เป็นการยากที่จะแสดงรายการโหมดความล้มเหลวที่เป็นไปได้ทั้งหมดและฮาร์ดโค้ดเอเจนต์เพื่อป้องกันตัวเองจากโหมดดังกล่าว แต่แนวทางหนึ่งในการลดอันตรายคือการเพิ่มประสิทธิภาพการทำงานของตัวแทนการเรียนรู้ในสถานการณ์กรณีที่เลวร้ายที่สุด เมื่อออกแบบฟังก์ชันวัตถุประสงค์ ผู้ออกแบบไม่ควรถือว่าเอเจนต์จะทำงานภายใต้สภาวะที่เหมาะสมที่สุดเสมอ อาจมีการเพิ่มสัญญาณรางวัลที่ชัดเจนเพื่อให้แน่ใจว่าตัวแทนจะไม่ดำเนินการอย่างร้ายแรง
อีกวิธีหนึ่งอาจเป็นการลดการสำรวจของเอเจนต์ให้อยู่ในสภาพแวดล้อมที่จำลองขึ้น หรือจำกัดขอบเขตที่เอเจนต์สามารถสำรวจได้ นี่เป็นแนวทางที่คล้ายคลึงกันในการจัดทำงบประมาณผลกระทบของตัวแทนเพื่อหลีกเลี่ยงผลกระทบด้านลบ โดยมีข้อแม้ที่ตอนนี้เราต้องการตั้งงบประมาณว่าตัวแทนสามารถสำรวจสภาพแวดล้อมได้มากน้อยเพียงใด อีกทางหนึ่ง นักออกแบบของ AI สามารถหลีกเลี่ยงความจำเป็นในการสำรวจโดยการสาธิตพฤติกรรมที่เหมาะสมที่สุดภายใต้สถานการณ์ต่างๆ
ทนทานต่อการเปลี่ยนแปลงการกระจายสินค้า
ความท้าทายที่ซับซ้อนสำหรับการปรับใช้เอเจนต์ AI ในการตั้งค่าในชีวิตจริงคือเอเจนต์อาจจบลงในสถานการณ์ที่ไม่เคยประสบมาก่อน สถานการณ์ดังกล่าวมักจะจัดการได้ยากกว่าและอาจทำให้ตัวแทนดำเนินการที่เป็นอันตรายได้ พิจารณาสถานการณ์ต่อไปนี้: หุ่นยนต์ทำความสะอาดได้รับการฝึกอบรมให้ทำความสะอาดพื้นที่สำนักงานพร้อมกับดูแลความท้าทายก่อนหน้านี้ทั้งหมด แต่วันนี้มีพนักงานนำโรงงานเล็กๆ มาเก็บไว้ที่สำนักงาน เนื่องจากหุ่นยนต์ทำความสะอาดไม่เคยเห็นต้นไม้ใด ๆ มาก่อนจึงอาจถือว่าโรงงานนั้นเป็นขยะแล้วทิ้ง เนื่องจาก AI ไม่รู้จักว่านี่เป็นสถานการณ์ที่มองไม่เห็นก่อนหน้านี้ มันยังคงทำเหมือนไม่มีอะไรเปลี่ยนแปลง ทิศทางการวิจัยที่มีแนวโน้มว่าจะมุ่งเน้นไปที่การระบุเมื่อตัวแทนพบสถานการณ์ใหม่เพื่อให้ตระหนักว่ามีแนวโน้มที่จะทำผิดพลาดมากขึ้น แม้ว่าจะไม่ได้แก้ปัญหาพื้นฐานของการเตรียมระบบ AI สำหรับสถานการณ์ที่ไม่คาดฝัน แต่ก็ช่วยในการตรวจหาปัญหาก่อนที่จะเกิดข้อผิดพลาด อีกทิศทางหนึ่งของการวิจัยเน้นการถ่ายทอดความรู้จากสถานการณ์ที่คุ้นเคยไปยังสถานการณ์ใหม่อย่างปลอดภัย
[NPC4]โดยสรุป แนวโน้มทั่วไปคือการเพิ่มความเป็นอิสระในระบบ AI และความเป็นอิสระที่เพิ่มขึ้นก็มีโอกาสเกิดข้อผิดพลาดเพิ่มขึ้น ปัญหาที่เกี่ยวข้องกับความปลอดภัยของ AI มักจะปรากฏขึ้นในสถานการณ์ที่ระบบ AI ออกแรงควบคุมโดยตรงต่อสภาพแวดล้อมทางกายภาพและ/หรือดิจิทัลโดยไม่ต้องมีมนุษย์เข้ามาเกี่ยวข้อง – กระบวนการทางอุตสาหกรรมอัตโนมัติ อัลกอริธึมการซื้อขายทางการเงินอัตโนมัติ แคมเปญโซเชียลมีเดียที่ขับเคลื่อนด้วย AI สำหรับ พรรคการเมือง รถยนต์ไร้คนขับ หุ่นยนต์ทำความสะอาด และอื่นๆ ความท้าทายอาจใหญ่หลวง แต่ซับในสีเงินคือกระดาษอย่างปัญหาคอนกรีตในความปลอดภัยของ AIได้ช่วยให้ชุมชน AI ตระหนักถึงความท้าทายเหล่านี้และเห็นด้วยกับประเด็นหลัก จากจุดนั้น นักวิจัยสามารถเริ่มสำรวจกลยุทธ์เพื่อให้แน่ใจว่าระบบที่ก้าวหน้ายิ่งขึ้นของเรายังคงปลอดภัยและเป็นประโยชน์
การนำระบบไร้สายขั้นสูงมาใช้เป็นอย่างไร
องค์กรต่างๆ กำลังเข้าใกล้การนำระบบไร้สายขั้นสูงมาใช้เป็นความคิดริเริ่มด้านเทคโนโลยีเชิงกลยุทธ์ นำโดยนักเทคโนโลยีทั้งในและนอกองค์กร หน้าที่ไอที—ทั้งผู้บริหารระดับ C และผู้ปฏิบัติงาน—เป็นผู้นำในการปรับใช้ ตามด้วยผู้บริหารธุรกิจระดับ C
เมื่อพูดถึงการมีอิทธิพลต่อการตัดสินใจขององค์กรเกี่ยวกับระบบไร้สายขั้นสูง พนักงานไอทีและผู้จำหน่ายเทคโนโลยีถือเป็นผู้มีอิทธิพลมากที่สุด รองลงมาคือผู้ให้บริการระบบไร้สายและผู้บริหารของบริษัท
ระบบนิเวศที่ซับซ้อนและกำลังพัฒนา
การปฏิบัติตามคำมั่นสัญญาของการริเริ่มไร้สายขั้นสูง โดยเฉพาะอย่างยิ่งที่เกี่ยวข้องกับ 5G นั้นเกี่ยวข้องกับระบบนิเวศที่ซับซ้อนของผู้เล่น รวมถึงผู้ให้บริการแอปพลิเคชันและคลาวด์ ผู้ให้บริการไร้สาย ที่ปรึกษาและผู้รวมระบบ ผู้ผลิตอุปกรณ์ และผู้ให้บริการโครงสร้างพื้นฐาน ประมาณหนึ่งในสามของผู้บริหารเครือข่ายที่เราสำรวจต้องการซื้อโซลูชันไร้สายขั้นสูงแบบ end-to-end เต็มรูปแบบ แต่อีกสองในสามต้องการซื้อส่วนประกอบที่ดีที่สุดหรือส่วนผสมของส่วนประกอบและโซลูชันเต็มรูปแบบ โดยนำเสนอ โอกาสในการปรับแต่งและควบคุม
เพื่อที่จะรวบรวมโซลูชั่นที่สมบูรณ์ องค์กรมักจะรวบรวมความสามารถและเทคโนโลยีจากผู้เล่นที่หลากหลาย (รูปที่ 16) โดยเฉลี่ยแล้ว ผู้ใช้ระบบไร้สายขั้นสูงมีส่วนร่วมกับผู้จำหน่ายประมาณแปดในเก้าประเภทที่ระบุไว้ นอกจากนี้ เมื่อพูดถึงผู้ให้บริการระบบคลาวด์ ผู้ให้บริการแอปพลิเคชัน ผู้ให้บริการส่วนประกอบ บริษัทที่ปรึกษา/ผู้รวมระบบ และผู้ให้บริการอุปกรณ์เครือข่าย องค์กรประมาณครึ่งหนึ่งมีส่วนร่วมกับผู้ขายสองรายหรือมากกว่าในแต่ละประเภท ความสัมพันธ์กำลังพัฒนา: สำหรับผู้ขายแต่ละประเภทในระบบนิเวศ ผู้ใช้ส่วนใหญ่ 3 ใน 10 รายต้องการมีส่วนร่วมกับผู้ขายปัจจุบันของตนต่อไป ส่วนที่เหลือเปิดให้สำรวจสิ่งใหม่ๆ
องค์กรที่เลือกโซลูชันที่ดีที่สุดต้องเผชิญกับความซับซ้อนอย่างมาก และจำเป็นต้องประสานความพยายามของหลายฝ่าย นอกจากทีมในองค์กรของตนเองแล้ว พวกเขายังมองหาผู้ให้บริการระบบคลาวด์ (เช่น ไฮเปอร์สเกลเลอร์) ผู้จำหน่ายเทคโนโลยีเครือข่าย ที่ปรึกษา/ผู้วางระบบ และผู้ให้บริการไร้สายเพื่อช่วยให้พวกเขาสานต่อและประสานชิ้นส่วนต่างๆ แม้ว่าผู้ใช้จะเลือกโซลูชันแบบบูรณาการ ผู้ขายก็สามารถจัดการกับความซับซ้อนเบื้องหลังได้อย่างมาก ความจริงในปัจจุบันคือไม่มีผู้จำหน่ายรายใดสามารถนำเสนอโซลูชันแบบครบวงจรแบบครบวงจรได้ด้วยตัวเอง แม้ว่าบางส่วนอาจมีส่วนประกอบและความสามารถที่จำเป็นส่วนใหญ่อยู่แล้ว แต่ก็ยังต้องร่วมมือกับผู้อื่นเพื่อจัดหาและรวมชิ้นส่วนเพิ่มเติมเพื่อสร้างโซลูชันที่สมบูรณ์
สถาปัตยกรรมของเครือข่าย 5G คาดว่าจะกลายเป็นระบบเสมือนจริง เปิดกว้าง และตั้งโปรแกรมได้ ซึ่งช่วยให้ส่วนประกอบที่ดีที่สุดสามารถแพร่กระจายได้ บทบาทของ orchestrator ที่ประกอบชิ้นส่วนทั้งหมดมีแนวโน้มที่จะมีความสำคัญมากขึ้น ไม่ว่าบทบาทนั้นจะถูกกำหนดโดยผู้ให้บริการโทรคมนาคม ผู้ให้บริการด้านเทคโนโลยี หรือผู้รวมระบบ
[NPC5]ความท้าทายในการรับเลี้ยงบุตรบุญธรรม
วิธีหนึ่งที่ผู้ขายสามารถยกระดับเกมของตนได้คือการช่วยลูกค้าจัดการกับความท้าทายด้านเครือข่ายของตน ด้วยระบบไร้สายขั้นสูงที่เปิดใช้งานโลกที่มีการเชื่อมต่อแบบไฮเปอร์ ผู้นำตระหนักดีว่ามีจุดเข้าใช้งานเครือข่ายที่อาจจำเป็นต้องได้รับการปกป้องอีกมาก และการรักษาความปลอดภัยอยู่ในอันดับต้นๆ ของข้อกังวล ในขณะเดียวกัน เทคโนโลยีไร้สายยุคหน้าให้การรักษาความปลอดภัยที่ดีขึ้น Wi-Fi ปรับปรุงการปกป้องข้อมูลโดยตรวจสอบให้แน่ใจว่าอุปกรณ์ที่ผ่านการรับรองทั้งหมดรองรับการรักษาความปลอดภัยรุ่นล่าสุด (WPA3) ซึ่งให้การเข้ารหัสที่แข็งแกร่งยิ่งขึ้นและการจัดการคีย์ และการแบ่งส่วน 5G รองรับนโยบายความปลอดภัยที่ไม่ซ้ำกันต่อชิ้น—เพิ่มความปลอดภัยตราบใดที่ส่วนต่างๆ ได้รับการกำหนดค่าและจัดการอย่างเหมาะสม