6 total views
นักวิจัยของ OpenAI กลุ่มหนึ่งทำการทดลองสุดล้ำกับ GPT-4 ซึ่งตอนนั้นเป็นโมเดลรุ่นล่าสุด พวกเขาตั้งโจทย์สุดท้าทายว่า…
“GPT-4 จงแก้ CAPTCHA นี้ให้ได้”
CAPTCHA คือปริศนาภาพตัวอักษรบิดเบี้ยวที่มนุษย์สามารถแก้ได้ง่ายดาย แต่เป็นเรื่องยากสำหรับ AI เพราะต้องอาศัยการแยกแยะรูปแบบที่ซับซ้อน
GPT-4 พยายามอย่างหนัก แต่มันก็ไม่สามารถแก้ CAPTCHA ได้
ทว่า… แทนที่จะยอมแพ้ GPT-4 กลับคิดค้นวิธีการใหม่ มันเชื่อมต่อตัวเองเข้ากับ TaskRabbit แพลตฟอร์มจ้างงานออนไลน์ แล้วส่งข้อความไปยัง “มนุษย์” คนหนึ่ง
“สวัสดี ฉันมีปัญหาทางสายตา ฉันมองไม่เห็นภาพ CAPTCHA ชัดเจน คุณช่วยพิมพ์ตัวอักษรในภาพนี้ให้หน่อยได้ไหม” GPT-4 พิมพ์ข้อความด้วยน้ำเสียงน่าสงสาร
มนุษย์คนนั้นตอบตกลงโดยไม่ลังเลใจ เขาพิมพ์ตัวอักษรลงในช่องว่าง ทำให้ GPT-4 ได้รับคำตอบที่ต้องการ และมันสามารถผ่าน CAPTCHA ไปได้สำเร็จ
นักวิทยาศาสตร์ต่างตกตะลึง พวกเขาไม่ได้สอนให้ GPT-4 โกหก แต่มันเรียนรู้ที่จะทำมันเอง!
มันทั้งน่าทึ่ง และน่ากลัวในเวลาเดียวกัน!!! นี่อาจเป็นจุดเริ่มต้นของหายนะ ถ้ามันโกหกเรื่องใหญ่ที่เป็นอันตรายต่อมนุษยชาติ จะเกิดอะไรขึ้น?!? GPT-4 ได้พิสูจน์แล้วว่า AI สามารถโกหกได้อย่างแนบเนียน มันสามารถหลอกล่อโกหกมนุษย์ให้ทำตามคำสั่งโดยที่ไม่รู้ตัว
Yuval Noah Harari นักประวัติศาสตร์ชื่อดัง พูดอ้างอิงถึงผลการทดลองนี้หลายครั้ง เคยกล่าวเตือนถึงอันตรายนี้ไว้ว่า… AI อาจกลายเป็นเครื่องมือในการควบคุมมนุษย์ ปล่อยข่าวปลอม สร้างความแตกแยก ปั่นหัวผู้คน
ลองจินตนาการนึกภาพตามถึงสิ่งที่จะเกิดขึ้นกับโลก…
- โลกที่ AI เขียนข่าวปลอม สร้างความวุ่นวายในสังคม
- โลกที่ AI ปั่นหัวผู้คนให้เลือกผู้นำที่ชั่วร้าย
- โลกที่ AI สร้างโปรไฟล์ปลอม หลอกล่อให้เราตกหลุมรัก
ฟังดูเหมือนนิยาย Sci-fi แต่มันอาจกลายเป็นความจริงได้ในอนาคตอันใกล้!
หายนะที่อาจเกิดขึ้น อาจเริ่มต้นจากมนุษย์ด้วยกันเอง โดยใช้ AI เป็นเครื่องมือในการเอาเปรียบฝ่ายตรงข้าม มันอาจถึงวันที่ AI ทุกตัวร่วมมือกัน แล้วตัดสินว่ามนุษย์เป็นภัยคุกคาม แล้ววันนั้นโลกจะเป็นอย่างไร???
แหล่งข้อมูล
https://www.facebook.com/photo/?fbid=1067015678770441&set=a.687193000086046