Get in my Think Art.

AI Alignment Podcast: ภาพรวมของการจัดแนว AI ทางเทคนิคกับ Rohin Shah

AI Alignment Podcast: ภาพรวมของการจัดแนว AI ทางเทคนิคกับ Rohin Shah

AI Alignment Podcast: ภาพรวมของการจัดแนว AI ทางเทคนิคกับ Rohin Shah

jumbo jili

พื้นที่ของการวิจัยการจัดตำแหน่ง AI นั้นมีไดนามิกสูงและมักจะเป็นเรื่องยากที่จะได้ภาพทิวทัศน์จากมุมสูง พอดคาสต์นี้เป็นส่วนที่สองในสองส่วนที่พยายามแก้ไขบางส่วนโดยให้ภาพรวมของความพยายามในการจัดตำแหน่ง AI ทางเทคนิค โดยเฉพาะอย่างยิ่ง ตอนนี้พยายามที่จะดำเนินการอภิปรายต่อจากส่วนที่ 1 โดยเจาะลึกมากขึ้นเกี่ยวกับแนวทางเฉพาะในการจัดตำแหน่ง AI ในพอดแคสต์นี้ ลูคัสได้พูดคุยกับโรฮิน ชาห์ Rohin เป็นนักศึกษาปริญญาเอกปีที่ 5 ที่ UC Berkeley โดยมี Center for Human-Compatible AIทำงานร่วมกับ Anca Dragan, Pieter Abbeel และ Stuart Russell ทุกสัปดาห์เขาเก็บรวบรวมและสรุปความคืบหน้าล่าสุดที่เกี่ยวข้องกับ AI การจัดตำแหน่งในการจัดจดหมายข่าว

สล็อต

Lucas: สวัสดีทุกคน ยินดีต้อนรับกลับสู่ AI Alignment Podcast ฉันชื่อลูคัส เพอร์รี และตอนนี้เป็นตอนที่สองของซีรีส์สองตอนของเรากับโรฮิน ชาห์ ซึ่งเป็นการพัฒนาภาพรวมของความพยายามในการจัดตำแหน่ง AI ทางเทคนิค หากคุณยังไม่ได้ฟังส่วนแรก เราขอแนะนำให้คุณฟังเพราะเป็นส่วนแนะนำเกี่ยวกับแนวทางต่างๆ ที่กล่าวถึงในที่นี้ ส่วนที่สองมุ่งเน้นไปที่การสำรวจวิธีการจัดตำแหน่ง AI ในเชิงลึกมากขึ้น และการตอกย้ำความเฉพาะเจาะจงของแนวทางและเลนส์ที่ใช้เพื่อดูปัญหา
ในตอนนี้ โรฮินจะเริ่มต้นด้วยการดำเนินไปตามลำดับผ่านแนวทางที่กล่าวถึงในตอนแรก เราจะเริ่มด้วยเอเจนซี่แบบฝังตัว จากนั้นจึงหารือเกี่ยวกับการทำให้ระบบ AI ทำในสิ่งที่เราต้องการ และเราจะหารือเกี่ยวกับการเรียนรู้คุณค่าที่ทะเยอทะยานควบคู่ไปกับเรื่องนี้ ต่อไป เราจะย้ายไปสู่ความสอดคล้อง โดยเฉพาะอย่างยิ่ง การขยายเสียงซ้ำ การโต้วาที และการแยกตัวประกอบการรับรู้
ต่อไปเราจะหารือเกี่ยวกับการกำหนดข้อจำกัดในระบบ AI สิ่งต่าง ๆ ในลักษณะนี้จะเป็นการชกมวย AI และการวัดผลกระทบ หลังจากนี้ เราจะเข้าสู่ความแข็งแกร่งซึ่งประกอบด้วยการตรวจสอบ การเรียนรู้ของเครื่องของฝ่ายตรงข้าม และตัวอย่างที่ขัดแย้งกัน
ต่อไป เราจะหารือเกี่ยวกับการวิจัยความสามารถในการตีความ และบริการ AI ที่ครอบคลุมในที่สุด ในการฟังส่วนแรกของซีรีส์ คุณควรมีบริบทเพียงพอสำหรับเนื้อหาเหล่านี้ในส่วนที่สอง ในฐานะที่เป็นการประกาศเล็กน้อย ฉันชอบให้พอดคาสต์นี้มีประโยชน์เป็นพิเศษและน่าสนใจสำหรับผู้ฟัง ดังนั้นฉันจึงร่างแบบสำรวจสั้น ๆ สามนาทีซึ่งคุณสามารถหาลิงก์ไปที่หน้า FLI สำหรับพอดคาสต์นี้ หรือในคำอธิบายว่าคุณอาจพบพ็อดคาสท์นี้ที่ใด เช่นเคย หากคุณพบว่าพอดคาสต์นี้น่าสนใจหรือมีประโยชน์ โปรดอย่าลืมกดถูกใจ สมัครรับข้อมูล และติดตามเราบนแพลตฟอร์มการฟังที่คุณต้องการ
สำหรับผู้ที่ยังไม่คุ้นเคยกับ Rohin เขาเป็นนักศึกษาระดับปริญญาเอกปีที่ 5 ในสาขาวิทยาการคอมพิวเตอร์ที่ UC Berkeley โดยมี Center for Human Compatible AI ทำงานร่วมกับ Anca Dragan, Pieter Abbeel และ Stuart Russell ทุกสัปดาห์เขาจะรวบรวมและสรุปความคืบหน้าล่าสุดที่เกี่ยวข้องกับการจัดตำแหน่ง AI ในจดหมายข่าว Alignment ด้วยสิ่งนั้น เราจะเริ่มด้วยการเลื่อนตามลำดับผ่านเข้าใกล้ที่เพิ่งแจกแจงไว้ ไม่เป็นไร. มาเริ่มกันที่ตัวแรก ซึ่งผมเชื่อว่าเป็นเอเจนซี่ที่ฝังตัว
โรฮิน: ใช่หน่วยงานฝังตัวดังนั้น ฉันอยากจะแตกต่างไปจากลำดับเอเจนซี่ที่ฝังไว้ เพราะฉันจะไม่ทำงานที่ไหนใกล้ ๆ กับงานที่ดีอย่างที่เป็นอยู่ แต่แนวคิดพื้นฐานคือเราต้องการให้มีทฤษฎีความฉลาดแบบนี้ และอุปสรรคสำคัญอย่างหนึ่งคือข้อเท็จจริงที่ว่าทฤษฎีปัจจุบันทั้งหมดของเรา ที่โดดเด่นที่สุดคือ การเรียนรู้แบบเสริมกำลัง ทำให้สมมติฐานนี้มีขอบเขตที่ชัดเจน ระหว่างสิ่งแวดล้อมกับตัวแทน มันเหมือนกับว่าเจ้าหน้าที่กำลังเล่นวิดีโอเกม และวิดีโอเกมคือสิ่งแวดล้อม ไม่มีทางที่สภาพแวดล้อมจะส่งผลกระทบต่อตัวแทนได้จริง เอเจนต์มีช่องอินพุตที่กำหนดนี้ ดำเนินการ การกระทำเหล่านั้นถูกส่งไปยังสภาพแวดล้อมของวิดีโอเกม สภาพแวดล้อมของวิดีโอเกมทำสิ่งต่างๆ ตามนั้น และสร้างข้อสังเกต แล้วการสังเกตนั้นก็ถูกส่งกลับไปยังตัวแทนที่ได้ดูมัน และมีสิ่งที่เป็นนามธรรมที่ดีและสะอาดอยู่ตรงนั้น เอเย่นต์อาจตัวใหญ่กว่าวิดีโอเกม แบบเดียวกับที่ฉันตัวใหญ่กว่าทิก แทก โท
ฉันสามารถจำลองแผนผังเกมทั้งหมดของ tic tac toe และหาว่านโยบายที่เหมาะสมที่สุดสำหรับ tic tac toe คืออะไร จริงๆ แล้ว XKCD สุดเจ๋งนี้จะแสดงให้คุณเห็นแผนผังเกมทั้งหมด มันเยี่ยมมาก
ดังนั้นในลักษณะเดียวกันในการตั้งค่าวิดีโอเกม เอเจนต์สามารถมีขนาดใหญ่กว่าสภาพแวดล้อมของวิดีโอเกม โดยสามารถมีแบบจำลองสภาพแวดล้อมที่แม่นยำอย่างสมบูรณ์แบบ และรู้ว่าการกระทำของมันจะทำอย่างไร จึงมีสมมติฐานดีๆ ทั้งหมดที่เราได้รับในดินแดนสิ่งแวดล้อมวิดีโอเกม แต่ในโลกแห่งความเป็นจริง สิ่งเหล่านี้ใช้ไม่ได้ผล ถ้าคุณคิดว่าฉันอยู่บนโลก ฉันไม่สามารถมีแบบจำลองที่แน่นอนของสภาพแวดล้อมทั้งหมดได้ เนื่องจากสภาพแวดล้อมประกอบด้วยฉันอยู่ภายใน และไม่มีทางที่ฉันจะมีแบบจำลองที่สมบูรณ์แบบของฉันอยู่ภายในตัวฉัน นั่นไม่ใช่สิ่งที่จะเกิดขึ้นได้ ไม่ต้องพูดถึงการมีแบบจำลองที่สมบูรณ์แบบของส่วนที่เหลือของจักรวาล แต่เราจะปล่อยมันไป

สล็อตออนไลน์

มีข้อเท็จจริงที่ไม่ชัดเจนนักว่าพื้นที่ปฏิบัติการของฉันคืออะไร เมื่อฉันมีแล็ปท็อปแล้ว แล็ปท็อปจะเริ่มพูดเป็นส่วนหนึ่งของพื้นที่ดำเนินการของฉันหรือไม่ เราพูดถึงเฉพาะคำสั่งของมอเตอร์ที่ฉันสามารถให้กับแขนขาของฉันได้หรือไม่? แต่จะเกิดอะไรขึ้นหากจู่ๆ ฉันถูกอัพโหลดและตอนนี้ฉันไม่มีเลนส์อีกต่อไป เกิดอะไรขึ้นกับการกระทำของฉัน มันหายไปแล้วเหรอ? ดังนั้น Embedded Agency จึงแยกคำถามนี้ออกเป็นสี่ปัญหาย่อย ฉันเชื่อมโยงพวกเขาด้วยสี เพราะนั่นคือสิ่งที่ Scott และ Abram ทำตามลำดับ สีแดงคือทฤษฎีการตัดสินใจ โดยปกติ ทฤษฎีการตัดสินใจจะพิจารณาการกระทำที่เป็นไปได้ทั้งหมดเพื่อจำลองผลที่ตามมา เลือกวิธีที่จะนำไปสู่ประโยชน์สูงสุดที่คาดหวังไว้ นี่ไม่ใช่สิ่งที่คุณสามารถทำได้เมื่อคุณเป็นตัวแทนฝังตัว เนื่องจากสภาพแวดล้อมอาจขึ้นอยู่กับนโยบายที่คุณทำ
ตัวอย่างคลาสสิกของเรื่องนี้คือปัญหาของนิวคอมบ์ที่ส่วนหนึ่งของสิ่งแวดล้อมคือโอเมก้า Omega สามารถทำนายคุณได้อย่างสมบูรณ์แบบ ดังนั้นมันจึงรู้แน่ชัดว่าคุณกำลังจะทำอะไร และ Omega นั้นน่าเชื่อถือ 100% และสมมติฐานที่เข้าใจง่ายเหล่านี้ทั้งหมด Omega ให้เกมต่อไปนี้แก่คุณ เขาจะวางกล่องใสสองกล่องไว้ข้างหน้าคุณ กล่องแรกจะมีเงิน 1,000 ดอลลาร์เสมอ และกล่องที่สองจะมีหนึ่งล้านดอลลาร์หรือไม่มีอะไรเลย และคุณสามารถเห็นสิ่งนี้ได้เพราะมันโปร่งใส คุณสามารถเลือกได้ว่าจะเอากล่องใดกล่องหนึ่งหรือทั้งสองกล่อง แล้วคุณก็จะได้ของที่อยู่ในกล่องนั้น
สิ่งที่จับได้คือโอเมก้าใส่เงินเพียงล้านเหรียญในกล่อง ถ้าเขาคาดการณ์ว่าคุณจะรับเฉพาะกล่องที่มีเงินล้านอยู่ในกล่อง ไม่ใช่อีกกล่องหนึ่ง ตอนนี้คุณเห็นกล่องสองกล่อง และคุณเห็นว่ากล่องหนึ่งมีหนึ่งล้านดอลลาร์ และอีกกล่องหนึ่งมีหนึ่งพันดอลลาร์ ในกรณีนั้นคุณควรเอาทั้งสองกล่องหรือไม่? หรือคุณควรเอากล่องที่มีล้านดอลลาร์? วิธีที่ฉันได้ตั้งค่าไว้ตอนนี้ มันเป็นไปไม่ได้ตามหลักเหตุผลสำหรับคุณที่จะทำอะไรนอกจากเอาเงินล้าน ดังนั้นบางทีคุณอาจจะบอกว่าโอเค ฉันมีเหตุผลที่ต้องทำเช่นนี้ ดังนั้นอาจจะไม่น่าสนใจมาก แต่คุณสามารถผ่อนคลายสิ่งนี้ให้กับปัญหาที่โอเมก้า 99.999% มีแนวโน้มที่จะทำนายได้ถูกต้อง ในบางแง่มุม คุณมีสิทธิ์เสรี คุณสามารถเลือกทั้งสองกล่องและมันจะไม่เป็นตรรกะที่เป็นไปไม่ได้ และคุณรู้ว่าทั้งสองกล่องอยู่ที่นั่น คุณไม่สามารถเปลี่ยนจำนวนเงินที่อยู่ในกล่องได้ในขณะนี้ ผู้ชาย คุณควรเอาทั้งสองกล่องไปเพราะมันจะทำให้คุณเพิ่มอีก $1,000 ทำไมคุณไม่ทำอย่างนั้น?
แต่ผมอ้างว่าสิ่งที่ควรทำในสถานการณ์นี้คือหยิบกล่องเดียว เพราะการที่คุณเป็นตัวแทนประเภทที่หยิบกล่องเดียวเป็นเหตุให้กล่องเดียวมีเงินล้านอยู่แล้ว และ ถ้าคุณเป็นตัวแทนประเภทที่ไม่เอากล่องเดียว เอาสองกล่องแทน คุณก็จะไม่เห็นเงินล้านที่นั่น นั่นคือปัญหาที่เกิดขึ้นในทฤษฎีการตัดสินใจแบบฝังตัว
ลูคัส: แม้ว่าจะเป็นการทดลองทางความคิด แต่ก็มีความรู้สึกว่าตัวแทนในการทดลองทางความคิดนั้นถูกฝังอยู่ในโลกที่เขาทำการสังเกตกล่องที่มีเงินหลายล้านเหรียญในนั้นด้วยอัจฉริยะวางสถานการณ์เหล่านี้?
โรฮิน: ครับ
Lucas: ฉันแค่ต้องการคำชี้แจงเกี่ยวกับการฝังตัวของตัวแทนและปัญหาของ Newcomb
Rohin: การฝังตัวเป็นเพราะสภาพแวดล้อมสามารถทำนายได้อย่างแม่นยำ หรือใกล้เคียงกับความแม่นยำที่เจ้าหน้าที่สามารถทำได้
ลูคัส: จีนี่คือสิ่งแวดล้อม?
Rohin: ใช่ Omega เป็นส่วนหนึ่งของสิ่งแวดล้อม คุณมีคุณ ตัวแทน และทุกสิ่งทุกอย่าง สิ่งแวดล้อม และคุณต้องตัดสินใจให้ดี เราเพิ่งจะพูดถึงว่าขอบเขตระหว่างตัวแทนกับสิ่งแวดล้อมนั้นไม่ชัดเจนนัก แต่ในขอบเขตที่เหมาะสมที่จะพูดคุยเกี่ยวกับคุณสามารถเลือกระหว่างการกระทำต่างๆ ได้ เราต้องการทฤษฎีบางอย่างเกี่ยวกับวิธีการทำเช่นนั้นเมื่อสภาพแวดล้อมสามารถมีสำเนาของคุณ ดังนั้น คุณอาจคิดว่า Omega เป็นการจำลองสำเนาของคุณและดูว่าคุณจะทำอะไรในสถานการณ์นี้ก่อนที่จะเสนอทางเลือกให้คุณ

jumboslot

เรามีทฤษฎีการตัดสินใจสีแดง แล้วเราก็มีแบบจำลองโลกสีเหลืองที่ฝังอยู่ ด้วยโมเดลโลกที่ฝังไว้ ปัญหาที่คุณมีคือ โดยปกติในสภาพแวดล้อมวิดีโอเกมที่ดี เราสามารถมีแบบจำลองที่แน่นอนได้ว่าสภาพแวดล้อมจะตอบสนองต่อการกระทำของเราอย่างไร แม้ว่าเราจะไม่ทราบในตอนแรก เราสามารถเรียนรู้ล่วงเวลาได้ และเมื่อเราเข้าใจแล้ว เป็นเรื่องง่ายมากที่จะเห็นว่าคุณจะวางแผนเพื่อทำสิ่งที่ดีที่สุดได้อย่างไร คุณสามารถทดลองการกระทำของคุณ จำลองทั้งหมด แล้วดูว่าอันไหนทำได้ดีที่สุดและทำแบบนั้น นี่เป็นงาน AIXI โดยประมาณ AIXI เป็นแบบจำลองของเอเจนต์ RL ที่ชาญฉลาดอย่างเหมาะสมในสภาพแวดล้อมวิดีโอเกมทั้งสี่นี้ เช่น การตั้งค่า
เมื่อคุณอยู่ในที่ดินตัวแทนที่ฝังตัวแล้ว คุณจะไม่สามารถมีแบบจำลองของสภาพแวดล้อมที่แน่นอนได้ เนื่องจากสิ่งหนึ่งสภาพแวดล้อมประกอบด้วยคุณ และคุณไม่สามารถมีแบบจำลองที่แน่นอนของคุณได้ แต่สภาพแวดล้อมก็มีขนาดใหญ่เช่นกัน และคุณไม่สามารถ จำลองได้อย่างแม่นยำ ปัญหาใหญ่คือมันมีคุณอยู่ ดังนั้น วิธีที่คุณได้รับการรับประกันที่สมเหตุสมผลเกี่ยวกับสิ่งที่คุณสามารถทำได้ แม้ว่าสภาพแวดล้อมสามารถกักขังคุณได้คือปัญหาของโมเดลโลกที่ฝังตัว คุณยังต้องการโมเดลโลก มันไม่แน่นอนเพราะมันประกอบด้วยคุณ บางทีคุณอาจทำบางสิ่งที่เป็นลำดับชั้นโดยที่สิ่งต่าง ๆ คลุมเครืออยู่ด้านบน แต่จากนั้นคุณสามารถมุ่งความสนใจไปที่แต่ละระดับของลำดับชั้น เพื่อที่จะได้แม่นยำยิ่งขึ้นเกี่ยวกับแต่ละรายการ บางทีนี่อาจจะเพียงพอแล้ว? ไม่ชัดเจน.
ลูคัส: ดังนั้นในแง่ของมนุษย์ เราเป็นตัวแทนที่สามารถสร้างแบบจำลองโลกที่แข็งแกร่งซึ่งสามารถคิดเกี่ยวกับการจัดตำแหน่ง AI ได้
Rohin: ใช่ แต่เราไม่รู้ว่าเราจะทำอย่างไร
ลูคัส : โอเค มีความเข้าใจใดบ้างที่เราสามารถดึงออกมาจากประสบการณ์ของเรา
Rohin: โอ้ ใช่ ฉันแน่ใจว่ามี มีงานมากมายเกี่ยวกับเรื่องนี้ที่ฉันไม่ค่อยคุ้นเคยนัก และอาจเป็นโรคจิตเภทหรือจิตวิทยาหรือประสาทวิทยาศาสตร์ ทุกสาขาที่ฉันแน่ใจว่าจะมีอะไรจะพูดเกี่ยวกับเรื่องนี้ โดยเฉพาะอย่างยิ่ง โมเดลโลกแบบมีลำดับชั้นมักถูกพูดถึงว่าน่าสนใจ ฉันรู้ว่ามีการเรียนรู้เสริมกำลังแบบลำดับชั้นใน AI ทั้งหมดที่มีแรงจูงใจจากสิ่งนี้ แต่ฉันเชื่อว่ามีการพูดถึงในด้านอื่น ๆ ของวิชาการด้วย และฉันแน่ใจว่ายังมีข้อมูลเชิงลึกอื่นๆ ที่จะได้รับจากที่นั่นเช่นกัน
Lucas: เอา ล่ะ ไปต่อจากโมเดลโลกที่มีลำดับชั้นกัน
โรฮิน: ตกลง. ถัดไปคือคณะผู้แทนที่แข็งแกร่งสีน้ำเงิน ด้วยคณะผู้แทนที่แข็งแกร่ง ปัญหาพื้นฐานที่นี่ ดังนั้นเราจึงพูดถึงการสะท้อนของ Vingean เล็กน้อยในพอดคาสต์แรก นี่เป็นปัญหาที่ตกอยู่ภายใต้การมอบหมายที่แข็งแกร่ง ปัญหาพาดหัวภายใต้การมอบหมายที่แข็งแกร่งคือตัวแทนสามารถปรับปรุงตนเองได้ สามารถให้เหตุผลเกี่ยวกับตัวเองและทำสิ่งต่าง ๆ ตามนั้น วิธีหนึ่งที่คุณคิดได้ก็คือแทนที่จะคิดว่าเป็นการดัดแปลงตัวเอง คุณสามารถคิดเกี่ยวกับมันในขณะที่เอเจนต์กำลังสร้างเอเจนต์ใหม่เพื่อดำเนินการตามขั้นตอนในอนาคต ดังนั้นในกรณีนั้นตัวแทนของคุณมีปัญหาว่าฉันจะสร้างตัวแทนสำหรับขั้นตอนในอนาคตได้อย่างไร ฉันมีความสุขที่ได้มอบหมายการตัดสินใจของฉันให้กับตัวแทนในอนาคตนั้น นั่นเป็นเหตุผลที่เรียกว่าการมอบหมายที่แข็งแกร่ง
[NPC5]กล่าวอย่างนี้ ปัญหาเป็นไปไม่ได้เพราะมีทฤษฎีบทมากมาย เป็นผลลัพธ์ที่เป็นที่รู้จักกันดีในตรรกะ ว่าทฤษฎีที่อ่อนแอกว่านั้นไม่สามารถพิสูจน์ความสอดคล้องของตัวมันเองได้ แต่ทฤษฎีที่แข็งแกร่งกว่านั้นก็เป็นผลพวงเช่นกัน ตามสัญชาตญาณในตัวอย่างง่ายๆ นี้ เราไม่ทราบวิธีหาตัวแทนที่สามารถไว้วางใจในเวอร์ชันที่ชาญฉลาดกว่าของตัวเองได้ คุณควรคาดหวังว่าปัญหานี้จะยากใช่ไหม มีความรู้สึกเป็นสองเท่ากับปัญหาที่เรามีเกี่ยวกับการจัดตำแหน่ง AI ที่เรากำลังสร้างสิ่งที่ฉลาดกว่าเรา และเราต้องการมันเพื่อไล่ตามสิ่งที่เราต้องการให้ไล่ตาม แต่มันฉลาดกว่าเรามาก เลยยากที่จะ บอกว่ามันจะทำอะไร
ดังนั้นฉันจึงนึกถึงความเกลียดชังของปัญหาการจัดตำแหน่ง AI แต่นำไปใช้กับกรณีของตัวแทนที่ฝังตัวให้เหตุผลเกี่ยวกับตัวเอง และสร้างเวอร์ชันที่ดีขึ้นของตัวเองในอนาคต ดังนั้นฉันเดาว่าเราสามารถไปยังส่วนสีเขียว ซึ่งเป็นการจัดตำแหน่งระบบย่อย สโลแกนสำหรับการจัดตำแหน่งระบบย่อยจะเป็นเอเจนต์ที่ฝังอยู่ซึ่งจะทำจากชิ้นส่วนต่างๆ ไม่ใช่วัตถุที่เชื่อมโยงกันแบบครบวงจรแบบนี้ มันมีชิ้นส่วนต่างๆ อยู่ข้างใน เพราะมันฝังอยู่ในสิ่งแวดล้อม และสิ่งแวดล้อมก็ถูกสร้างขึ้นจากชิ้นส่วนที่ประกอบขึ้นเป็นเอเจนต์ และดูเหมือนว่าระบบ AI ของคุณจะประกอบด้วยส่วนย่อยของการรับรู้ที่แตกต่างกัน และไม่ใช่ ชัดเจนว่าส่วนย่อยเหล่านั้นจะรวมเข้าด้วยกันเป็นหนึ่งเดียว ซึ่งทำให้ส่วนที่เป็นหนึ่งเดียวนั้นกำลังไล่ตามเป้าหมายที่คุณชอบ