Get in my Think Art.

อคติทางปัญญาและการจัดแนวค่า AI: บทสัมภาษณ์กับ Owain Evans

อคติทางปัญญาและการจัดแนวค่า AI: บทสัมภาษณ์กับ Owain Evans

อคติทางปัญญาและการจัดแนวค่า AI: บทสัมภาษณ์กับ Owain Evans

jumbo jili

หัวใจสำคัญของความปลอดภัยของ AI อยู่ที่ปัญหาการจัดแนวคุณค่า: เราจะสอนระบบปัญญาประดิษฐ์ให้สอดคล้องกับเป้าหมายและค่านิยมของมนุษย์ได้อย่างไร
นักวิจัยหลายคนโต้ตอบกับระบบ AI เพื่อสอนพวกเขาถึงคุณค่าของมนุษย์ โดยใช้เทคนิคต่างๆ เช่น การเรียนรู้การเสริมแรงผกผัน (IRL) ในทางทฤษฎี เมื่อใช้ IRL ระบบ AI สามารถเรียนรู้สิ่งที่มนุษย์ให้ความสำคัญและวิธีช่วยเหลือพวกเขาได้ดีที่สุดโดยการสังเกตพฤติกรรมของมนุษย์และรับผลตอบรับจากมนุษย์

สล็อต

แต่พฤติกรรมของมนุษย์ไม่ได้สะท้อนถึงคุณค่าของมนุษย์เสมอไป และความคิดเห็นของมนุษย์ก็มักจะลำเอียง เราบอกว่าเราต้องการอาหารเพื่อสุขภาพเมื่อเรารู้สึกผ่อนคลาย แต่แล้วเราต้องการอาหารมันเยิ้มเมื่อเราเครียด ไม่เพียงแต่เรามักจะล้มเหลวในการดำเนินชีวิตตามค่านิยมของเราเท่านั้น แต่ค่านิยมของเราหลายอย่างขัดแย้งกัน เราให้ความสำคัญกับการนอนหลับแปดชั่วโมง แต่เรานอนน้อยลงเป็นประจำเพราะเราให้ความสำคัญกับการทำงานหนัก การดูแลลูกๆ ของเรา และรักษาความสัมพันธ์ที่ดีต่อสุขภาพ
ระบบ AI อาจเรียนรู้ได้มากจากการสังเกตมนุษย์ แต่เนื่องจากความไม่สอดคล้องกันของเรา นักวิจัยบางคนกังวลว่าระบบที่ฝึกด้วย IRL จะไม่สามารถแยกแยะระหว่างพฤติกรรมที่ให้ความสำคัญกับคุณค่าและพฤติกรรมที่ไม่ตรงแนวได้ สิ่งนี้อาจกลายเป็นอันตรายโดยเฉพาะอย่างยิ่งเมื่อระบบ AI มีประสิทธิภาพมากขึ้น: การอนุมานค่าหรือเป้าหมายที่ไม่ถูกต้องจากการสังเกตมนุษย์อาจทำให้ระบบเหล่านี้มีพฤติกรรมที่เป็นอันตราย
แยกแยะอคติและค่านิยม
Owain Evans นักวิจัยจากFuture of Humanity Instituteและ Andreas Stuhlmüller ประธานฝ่ายวิจัยที่ไม่หวังผลกำไรOughtได้สำรวจข้อจำกัดของ IRL ในการสอนค่านิยมของมนุษย์ให้กับระบบ AI โดยเฉพาะอย่างยิ่ง การวิจัยของพวกเขาเผยให้เห็นว่าอคติทางปัญญาทำให้ AIs เรียนรู้ความชอบของมนุษย์ผ่านการเรียนรู้เชิงโต้ตอบได้ยากเพียงใด
อีแวนส์อธิบายเพิ่มเติมว่า: “เราต้องการให้ตัวแทนดำเนินการตามเป้าหมายบางชุด และเราต้องการให้ชุดเป้าหมายนั้นสอดคล้องกับเป้าหมายของมนุษย์ คำถามก็คือ หากเจ้าหน้าที่ได้เฝ้าดูมนุษย์และพยายามหาเป้าหมายจากพฤติกรรมของพวกเขา จะมีปัญหาอคติมากน้อยเพียงใด”
ในบางกรณี AI จะสามารถเข้าใจรูปแบบของอคติทั่วไปได้ อีแวนส์และStuhlmüllerหารือเกี่ยวกับวรรณกรรมทางจิตวิทยาเกี่ยวกับอคติในกระดาษของพวกเขาเรียนรู้การตั้งค่าของไม่รู้ตัวแทนที่ไม่สอดคล้องและในหนังสือออนไลน์ของพวกเขาagentmodels.org ตัวอย่างของรูปแบบทั่วไปที่กล่าวถึงใน agentmodels.org คือ “ความไม่สอดคล้องกันของเวลา” ความไม่สอดคล้องกันของเวลาคือแนวคิดที่ว่าค่านิยมและเป้าหมายของผู้คนเปลี่ยนแปลงไปขึ้นอยู่กับเวลาที่คุณถามพวกเขา กล่าวอีกนัยหนึ่ง “ มีความไม่สอดคล้องกันระหว่างสิ่งที่คุณต้องการให้ตัวเองในอนาคตทำกับสิ่งที่ตัวเองในอนาคตชอบทำ”
ตัวอย่างของความไม่สอดคล้องกันของเวลามีอยู่ทั่วไป ประการหนึ่ง คนส่วนใหญ่ให้ความสำคัญกับการตื่นเช้าและออกกำลังกายหากคุณถามพวกเขาก่อนนอน แต่เช้าตรู่ ที่อากาศหนาวและมืด และพวกเขาไม่ได้นอนแปดชั่วโมงนั้น พวกเขามักจะให้ความสำคัญกับความสบายของผ้าปูที่นอน และคุณธรรมของการผ่อนคลาย ตั้งแต่ตื่นเช้าไปจนถึงงดแอลกอฮอล์ การกินเพื่อสุขภาพ และการออมเงิน มนุษย์มักจะคาดหวังจากตัวเองในอนาคตมากกว่าที่ตัวเองในอนาคตจะเต็มใจทำ
ด้วยรูปแบบที่เป็นระบบและคาดการณ์ได้ เช่น ความไม่สอดคล้องของเวลา IRL สามารถก้าวหน้าไปกับระบบ AI ได้ แต่บ่อยครั้งที่อคติของเราไม่ชัดเจนนัก ตามที่อีแวนส์กล่าว การถอดรหัสการกระทำที่ตรงกับค่านิยมของใครบางคนและการกระทำใดที่เกิดจากอคตินั้นยากหรือเป็นไปไม่ได้โดยทั่วไป
“สมมติว่าคุณสัญญาว่าจะทำความสะอาดบ้านแต่คุณได้รับข้อเสนอในนาทีสุดท้ายให้ไปปาร์ตี้กับเพื่อนและคุณไม่สามารถต้านทานได้” เขากล่าว “นี่คืออคติหรือคุณค่าของการอยู่อาศัยของคุณในตอนนี้? นี่เป็นปัญหาสำหรับการใช้การเรียนรู้การเสริมแรงผกผันเท่านั้นในการฝึก AI — มันจะตัดสินได้อย่างไรว่าอคติและค่านิยมคืออะไร”
การเรียนรู้“ที่ถูกต้อง”ค่านิยม
แม้จะมีปริศนานี้ แต่การทำความเข้าใจค่านิยมและความชอบของมนุษย์ก็เป็นสิ่งจำเป็นสำหรับระบบ AI และนักพัฒนาก็มีความสนใจในทางปฏิบัติอย่างมากในการฝึกอบรมเครื่องจักรเพื่อเรียนรู้การตั้งค่าเหล่านี้
วันนี้เว็บไซต์ยอดนิยมใช้ AI เพื่อเรียนรู้ความชอบของมนุษย์ ยกตัวอย่างเช่น YouTube และ Amazon อัลกอริทึมการเรียนรู้ของเครื่องจะสังเกตพฤติกรรมของคุณและคาดการณ์ว่าคุณต้องการอะไรต่อไป แม้ว่าคำแนะนำเหล่านี้มักมีประโยชน์ แต่ก็มีผลที่ไม่คาดคิด
พิจารณากรณีของ Zeynep Tufekci รองศาสตราจารย์แห่ง School of Information and Library Science แห่งมหาวิทยาลัย North Carolina หลังจากดูวิดีโอการชุมนุมของทรัมป์เพื่อเรียนรู้เพิ่มเติมเกี่ยวกับการอุทธรณ์ผู้มีสิทธิเลือกตั้งของเขา ตูเฟกซีก็เริ่มเห็นโฆษณาชวนเชื่อชาตินิยมผิวขาวและวิดีโอปฏิเสธการฆ่าล้างเผ่าพันธุ์ในคิว “เล่นอัตโนมัติ” ของเธอ ในไม่ช้าเธอก็ตระหนักว่าอัลกอริทึมของ YouTube ซึ่งได้รับการปรับให้เหมาะสมเพื่อให้ผู้ใช้มีส่วนร่วม คาดการณ์ได้ว่าจะแนะนำเนื้อหาที่รุนแรงมากขึ้นเมื่อผู้ใช้ดูวิดีโอมากขึ้น สิ่งนี้ทำให้เธอเรียกเว็บไซต์ว่า “ The Great Radicalizer ”
ค่าที่ไม่ถูกต้องในอัลกอริธึมของ YouTube คาดการณ์ถึงอันตรายของการเรียนรู้เชิงโต้ตอบด้วยระบบ AI ขั้นสูง แทนที่จะปรับระบบ AI ขั้นสูงให้เหมาะสมเพื่อดึงดูดความต้องการระยะสั้นและแรงดึงดูดของเราจนสุดขั้ว นักออกแบบจะต้องสามารถเพิ่มประสิทธิภาพของระบบดังกล่าวเพื่อทำความเข้าใจค่านิยมที่ลึกซึ้งของเราและปรับปรุงชีวิตของเรา
อีแวนส์แนะนำว่าเราต้องการระบบ AI ที่สามารถให้เหตุผลในการตัดสินใจของเราได้ดีกว่าที่มนุษย์เข้าใจได้ เข้าใจเมื่อเราตัดสินใจอย่างลำเอียง และ “ช่วยให้เราดำเนินการตามความชอบในระยะยาวได้ดีขึ้น” อย่างไรก็ตาม สิ่งนี้จะทำให้ AI แนะนำสิ่งที่ดูเหมือนไม่ดีต่อมนุษย์เมื่อหน้าแดงครั้งแรก
ใครๆ ก็นึกภาพว่าระบบ AI เสนอแนะการปรับเปลี่ยนแผนธุรกิจได้อย่างยอดเยี่ยมและขัดกับสัญชาตญาณ และมนุษย์ก็พบว่ามันไร้สาระ หรือบางที AI อาจแนะนำเส้นทางการขับขี่ที่ยาวกว่าเล็กน้อยและปราศจากความเครียดในวันแรก แต่คนขับที่กังวลใจก็ใช้เส้นทางที่เร็วกว่าอยู่ดี ไม่มั่นใจ
เพื่อช่วยให้มนุษย์เข้าใจ AI ในสถานการณ์เหล่านี้ Evans และ Stuhlmüller ได้ทำการวิจัยว่าระบบ AI สามารถให้เหตุผลในรูปแบบที่มนุษย์เข้าใจได้ และสามารถปรับปรุงการใช้เหตุผลของมนุษย์ในท้ายที่สุด

สล็อตออนไลน์

วิธีหนึ่ง (คิดค้นโดย Paul Christiano) เรียกว่า “การขยายเสียง” ซึ่งมนุษย์ใช้ AI เพื่อช่วยให้พวกเขาคิดอย่างลึกซึ้งยิ่งขึ้นเกี่ยวกับการตัดสินใจ อีแวนส์อธิบายว่า: “คุณต้องการระบบที่คิดแบบเดียวกับที่เราคิด แต่มันสามารถทำได้เร็วขึ้น มีประสิทธิภาพมากขึ้น หรืออาจเชื่อถือได้มากกว่า แต่ควรเป็นการคิดแบบหนึ่งว่าถ้าคุณแยกย่อยออกเป็นขั้นตอนเล็กๆ มนุษย์สามารถเข้าใจและปฏิบัติตามได้”
แนวคิดที่สองนี้เรียกว่า “การรับรู้แบบแยกส่วน” – แนวคิดในการแบ่งงานที่ซับซ้อนออกเป็นขั้นตอนเล็กๆ ที่เข้าใจได้ ตามที่อีแวนส์กล่าว ยังไม่ชัดเจนว่าการรับรู้แบบแยกส่วนโดยทั่วไปจะประสบความสำเร็จได้อย่างไร บางครั้งมนุษย์สามารถแบ่งการให้เหตุผลออกเป็นขั้นตอนเล็กๆ ได้ แต่บ่อยครั้งที่เราอาศัยสัญชาตญาณ ซึ่งยากกว่ามากที่จะแยกแยะ
การระบุปัญหา
Evans และ Stuhlmüller ได้เริ่มโครงการวิจัยเกี่ยวกับการขยายเสียงและการแยกตัวประกอบการรับรู้ แต่พวกเขาไม่ได้แก้ปัญหาอคติของมนุษย์ในการเรียนรู้เชิงโต้ตอบ แต่ได้กำหนดรูปแบบปัญหาที่ซับซ้อนเหล่านี้ไว้อย่างชัดเจนสำหรับนักวิจัยคนอื่นๆ
“การแสดงปัญหานี้ในวิธีที่แม่นยำกว่าที่คนเคยทำมาก่อน” อีแวนส์กล่าว “ในที่สุดเราก็ได้ผลลัพธ์ที่น่าสนใจ แต่ผลลัพธ์อย่างหนึ่งของเราในแง่หนึ่งคือการตระหนักว่ามันยากมาก และเข้าใจว่าทำไมมันถึงยาก”
ในปี 2559และ2560การแก้ไขจีโนมทำให้เป็นการประเมินภัยคุกคามทั่วโลกประจำปีของชุมชนข่าวกรองแห่งสหรัฐอเมริกา ( ปรับปรุง: มันถูกระบุในการประเมินภัยคุกคามปี 2019ด้วย) หนึ่งในการพัฒนาที่ทันสมัยที่สุดของเทคโนโลยีชีวภาพที่มีแนวโน้มมากที่สุด ตอนนี้ถือว่าเป็นอันตรายต่อความมั่นคงของชาติสหรัฐ – และหลังจากนั้นสองปี มันก็ถูกถอดออกจากรายการอีกครั้ง ทั้งหมดนี้ทำให้เกิดคำถาม: การแก้ไขจีโนมคืออะไร และทำอะไรได้บ้าง
ส่วนใหญ่ก็วลี“จีโนมการแก้ไข” หมายถึงเครื่องมือและเทคนิคที่ใช้ในการ biotechnologists แก้ไขจีโนม- นั่นคือดีเอ็นเอหรืออาร์เอ็นเอของพืชสัตว์และแบคทีเรีย แม้ว่าเทคโนโลยีการแก้ไขจีโนมเวอร์ชันแรกสุดจะมีมานานหลายทศวรรษแล้ว แต่การนำ CRISPR มาใช้ในปี 2013 “ทำให้เกิดการปรับปรุงที่สำคัญในด้านความเร็ว ต้นทุน ความแม่นยำ และประสิทธิภาพของการแก้ไขจีโนม ”
CRISPR หรือ Clustered Regularly Interspersed Short Palindromic Repeats เป็นกลไกโบราณที่แบคทีเรียใช้เพื่อกำจัดไวรัสออกจาก DNA ของพวกมัน ในห้องปฏิบัติการ นักวิจัยได้ค้นพบว่าพวกเขาสามารถทำซ้ำกระบวนการนี้โดยการสร้างสาย RNA สังเคราะห์ที่ตรงกับลำดับดีเอ็นเอเป้าหมายในจีโนมของสิ่งมีชีวิต สาย RNA ที่เรียกว่า “ไกด์อาร์เอ็นเอ” ติดอยู่กับเอ็นไซม์ที่สามารถตัดดีเอ็นเอได้ หลังจากที่ RNA นำทางค้นหาลำดับดีเอ็นเอเป้าหมาย เอ็นไซม์จะตัดจีโนมที่ตำแหน่งนี้ จากนั้นสามารถลบ DNA และสามารถเพิ่ม DNA ใหม่ได้ CRISPR ได้อย่างรวดเร็วกลายเป็นเครื่องมือที่มีประสิทธิภาพสำหรับการแก้ไขจีโนมกับงานวิจัยที่เกิดขึ้นในความหลากหลายของพืชและสัตว์รวมทั้งมนุษย์

jumboslot

เปอร์เซ็นต์การวิจัยการแก้ไขจีโนมที่มีนัยสำคัญมุ่งเน้นไปที่การกำจัดโรคทางพันธุกรรม อย่างไรก็ตาม ด้วยเครื่องมืออย่าง CRISPR ก็เป็นไปได้ที่จะเปลี่ยนแปลง DNA ของเชื้อโรคเพื่อให้มีความรุนแรงและแพร่เชื้อมากขึ้น การใช้งานที่เป็นไปได้อื่นๆ ได้แก่การสร้าง “’ยุงนักฆ่า’ โรคระบาดที่กวาดล้างพืชผลหลัก หรือแม้แต่ไวรัสที่ดักจับ DNA ของผู้คน”
แต่การแก้ไขจีโนมสมควรได้รับตำแหน่งในหมู่ภัยคุกคามระดับโลกเช่นอาวุธนิวเคลียร์และการแฮ็กทางไซเบอร์หรือไม่? สำหรับสมาชิกหลายคนของชุมชนวิทยาศาสตร์ การรวมเข้าด้วยกันรู้สึกเหมือนมีปฏิกิริยามากเกินไป ในหมู่พวกเขาคือ ดร. เพียร์ส มิลเล็ตต์ นโยบายวิทยาศาสตร์และผู้เชี่ยวชาญด้านความปลอดภัยระดับนานาชาติ ซึ่งงานของเขามุ่งเน้นไปที่เทคโนโลยีชีวภาพและสงครามชีวภาพ
Millett ไม่แปลกใจเลยที่เทคโนโลยีชีวภาพโดยทั่วไปทำให้เป็นรายงานเหล่านี้: สิ่งที่เขาไม่ได้คาดหวังคือเครื่องมือเฉพาะอย่างการแก้ไขจีโนมจะถูกเรียกออกมา ในคำพูดของเขา: “โดยส่วนตัวแล้วฉันจะสบายใจกว่านี้มากถ้าเป็นความรู้สึกที่กว้างขึ้นที่จะพูดว่า ‘เฮ้ มีเทคโนโลยีชีวภาพเกิดขึ้นมากมายที่อาจทำให้สมการความเสี่ยงแบบเดิมของเราไม่เสถียรในพื้นที่นี้ และเราต้องระวังด้วย .’ …แต่การเรียกร้องการแก้ไขจีโนมโดยเฉพาะ ฉันยังไม่เข้าใจเหตุผลเบื้องหลังอย่างถ่องแท้”
อย่างไรก็ตาม นี่ไม่ได้หมายความว่าการใช้การแก้ไขจีโนมในทางที่ผิดจะไม่ทำให้เกิดความกังวล แม้แต่การใช้เทคโนโลยีอย่างเหมาะสมก็มักจะเกี่ยวข้องกับพันธุวิศวกรรมของเชื้อโรคทางชีววิทยา การวิจัยที่สามารถสร้างอาวุธได้ง่ายมาก Millett กล่าวว่า “หากคุณจงใจพยายามสร้างเชื้อโรคที่อันตรายถึงตาย แพร่กระจายได้ง่าย และเราไม่มีมาตรการด้านสาธารณสุขที่เหมาะสมในการบรรเทา สิ่งที่คุณสร้างขึ้นนั้นเป็นหนึ่งในสิ่งที่อันตรายที่สุดในโลก ”
Biowarfare ก่อนการแก้ไขจีโนม
การพัฒนาต่างๆ เช่น CRISPR นำเสนอความเป็นไปได้ใหม่ๆ สำหรับการทำสงครามชีวภาพ แต่อาวุธชีวภาพทำให้เกิดความกังวลมานานก่อนการตัดต่อยีนจะเกิดขึ้น การบันทึกการใช้เชื้อก่อโรคทางชีวภาพครั้งแรกในสงครามมีขึ้นตั้งแต่ 600 ปีก่อนคริสตกาลเมื่อโซลอน รัฐบุรุษชาวเอเธนส์ วางยาพิษแหล่งน้ำของศัตรูระหว่างการล้อมเมืองกฤษสา หลายศตวรรษต่อมา ระหว่างการบุกโจมตี Caffa ในปี ค.ศ. 1346 กองทัพมองโกลได้ยิงศพที่ติดเชื้อโรคระบาดเข้ามาในเมือง ซึ่งเชื่อกันว่ามีส่วนทำให้เกิดการระบาดใหญ่ของกาฟฟาในคริสต์ศตวรรษที่ 14 ซึ่งกวาดล้างประชากรยุโรปถึงสองในสาม
แม้ว่าอาวุธชีวภาพจะถูกห้ามในระดับสากลโดยอนุสัญญาเจนีวาปี 1925 แต่โครงการ biowarfare ของรัฐยังคงดำเนินต่อไป และในหลายกรณีก็ขยายออกไปในช่วงสงครามโลกครั้งที่สองและสงครามเย็น ในปีพ.ศ. 2515 เมื่อมีหลักฐานการละเมิดเหล่านี้เพิ่มขึ้น 103 ประเทศได้ลงนามในสนธิสัญญาที่เรียกว่าอนุสัญญาว่าด้วยอาวุธชีวภาพ (BWC) สนธิสัญญาห้ามไม่ให้มีการสร้างคลังแสงชีวภาพและห้ามการวิจัยทางชีววิทยาเชิงรุก แม้ว่าการวิจัยเชิงป้องกันจะได้รับอนุญาตก็ตาม ในแต่ละปี ผู้ลงนามจะต้องส่งข้อมูลบางอย่างเกี่ยวกับโครงการวิจัยทางชีววิทยาของตนไปยังสหประชาชาติ และการละเมิดที่รายงานไปยังคณะมนตรีความมั่นคงแห่งสหประชาชาติอาจส่งผลให้มีการตรวจสอบ
แต่สมาชิกถาวรของคณะมนตรีความมั่นคงสามารถคัดค้านการตรวจสอบได้ และไม่มีแนวทางที่ชัดเจนในการบังคับใช้ เหนือสิ่งอื่นใด แนวความคิดที่แยกการวิจัยทางชีววิทยาเชิงป้องกันที่อนุญาตออกจากงานวิจัยเชิงรุกนั้นคลุมเครือและยังคงเป็นประเด็นถกเถียง และถึงแม้ตัวเลขจริงจะยังไม่ทราบ แต่นักพยาธิวิทยา ดร. รีเดลยืนยันว่า“จำนวนโครงการที่ได้รับการสนับสนุนจากรัฐ [ที่มีส่วนร่วมในการวิจัยอาวุธชีวภาพเชิงรุก] เพิ่มขึ้นอย่างมากในช่วง 30 ปีที่ผ่านมา”
การวิจัยการใช้งานแบบคู่
ดังนั้น สงครามชีวภาพยังคงเป็นภัยคุกคาม และเป็นหนึ่งในเทคโนโลยีการแก้ไขจีโนมที่อาจทวีความรุนแรงขึ้นในเชิงสมมุติฐาน การแก้ไขจีโนมจัดอยู่ในหมวดหมู่ของการวิจัยและเทคโนโลยีที่เรียกว่า “การใช้งานแบบคู่” นั่นคือมีศักยภาพทั้งสำหรับความก้าวหน้าที่เป็นประโยชน์และการใช้ในทางที่ผิด “ในฐานะที่เป็นเทคโนโลยีที่เปิดใช้งาน มันช่วยให้คุณทำสิ่งต่างๆ ได้ ดังนั้นความตั้งใจของผู้ใช้จึงเป็นตัวกำหนดว่าสิ่งนั้นเป็นสิ่งที่ดีหรือแง่ลบ” Millett อธิบาย
[NPC5]และท้ายที่สุด สิ่งที่ถือว่าเป็นบวกหรือลบก็คือเรื่องของมุมมอง “กิจกรรมเดียวกันสามารถมองคนกลุ่มหนึ่งในเชิงบวก และมองในแง่ลบต่ออีกกลุ่มหนึ่งได้ เราจะตัดสินใจได้อย่างไรว่าอันไหนถูกและใครเป็นผู้ตัดสินใจ” การแก้ไขจีโนมสามารถนำมาใช้ ตัวอย่างเช่น เพื่อกำจัดยุงที่เป็นพาหะนำโรค ซึ่งเป็นแอพพลิเคชั่นที่หลายคนมองว่าเป็นบวก แต่ดังที่ Millet ชี้ให้เห็น บางวัฒนธรรมมองว่าการบิดเบือนระบบนิเวศอย่างโจ่งแจ้งว่าเป็นอันตรายหรือ “น่าสังเวช”