ปัญหาจาก Deadbots เมื่อ AI ตัวแทนคนตายอาจไม่ได้ดีอย่างที่คิด

 

30/05/2024

ปัญหาจาก Deadbots เมื่อ AI ตัวแทนคนตายอาจไม่ได้ดีอย่างที่คิด

Share

 29 total views

เราต่างเคยได้ยินเรื่อง Deadbots หรือการใช้ AI จำลองผู้เสียชีวิตให้กลับมาคุยกับเราอีกครั้งกันมาบ้าง แต่การนำผู้เสียชีวิตกลับมาอาจซับซ้อนกว่าที่คิด และอาจส่งผลกระทบต่อทั้งผู้ที่จากไปและผู้ที่ยังอยู่

Generative AI และ Chatbot นับเป็นวิทยาการที่ถูกพูดถึงอย่างกว้างขวางในช่วงปีที่ผ่านมา จากขีดความสามารถในการค้นหาข้อมูล เขียนบทความ สร้างรูปภาพ ไปจนเขียนโปรแกรมตามคำสั่งที่ได้รับมอบหมาย อีกทั้งได้รับการพัฒนาต่อเนื่องจนมีศักยภาพเพิ่มขึ้นทุกวัน

การมาถึงของเทคโนโลยีนี้กลายเป็นกุญแจที่ช่วยเปิดประตูความเป็นไปได้ไม่รู้จบ ตั้งแต่รองรับการป้อนข้อมูลภาพ เสียง และข้อความพร้อมกัน ตอบสนองต่อข้อมูลที่ป้อนเข้าไปแบบเรียลไทม์ ไปจนการพูดคุยตอบสนองที่แทบไม่แตกต่างไปจากคนจริง นำไปสู่การใช้งานในหลายรูปแบบ จึงไม่ใช่เรื่องแปลกกับแนวคิดในการพัฒนา Deadbots ที่ใช้เอไอเป็นตัวแทนคนตายขึ้นมา

Deadbots เมื่อคนตายยังคงอยู่กับเราในฐานะเอไอ

Deadbots หรือ Griefbots เป็นการนำข้อมูลภาพ เสียง ข้อความสนทนา ไปจนข้อมูลอิเล็กทรอนิกส์ทุกชนิดของผู้เสียชีวิตมาป้อนสู่ AI เพื่อทำการเรียนรู้ข้อมูลของเป้าหมาย จากนั้นจึงจำลองข้อมูลการแสดงผลทั้งภาพ เสียง การขยับปาก การใช้ภาษา และลักษณะของผู้เสียชีวิตจนสามารถพูดคุยตอบโต้ได้อีกครั้ง

แน่นอนนี่ไม่ใช่แนวคิดใหม่แต่ได้รับการพูดถึงมาแล้วหลายครั้ง ในสื่อบันเทิงเราสามารถพบเห็นได้จากซีรีส์ไซไฟ Black mirror ss2 ในตอน Be Right Back หรือในปี 2017 บริษัท Enternimine ก็เคยพัฒนาโปรเจค Skype for the dead อาศัยข้อมูลดิจิทัลในการจำลองผู้เสียชีวิตขึ้นมาใหม่ แต่ด้วยข้อจำกัดทางเทคโนโลยีจึงล้มเหลวไป

เมื่อความก้าวหน้าของปัญญาประดิษฐ์จากเทคโนโลยี Chatbot ทำให้หลายบริษัทต่างเล็งเห็นโอกาสในการนำแนวคิดนี้มาต่อยอด ทั้งบริษัทใหญ่อย่าง OpenAi ที่เคยนำโมเดล GPT-3 มาป้อนข้อมูลเลียนแบบคนที่จากไป หรือทาง Microsoft ที่มีการจดสิทธิบัตรจำลองตัวตนจากข้อมูลผู้เสียชีวิตเช่นกัน

ปัจจุบันมีแอปพลิเคชันหรือบริการที่ให้เราสร้าง Deadbots สำหรับพูดคุยได้มากมาย เช่น Re;memory ของDeepBrain AI จากเกาหลีใต้ที่ช่วยให้เราคุยกับคนที่จากไป, Project December กับการใช้ข้อมูลจำลองผู้เสียชีวิตให้กลับมาพูดคุยกับเราได้ หรือ MaNana ที่สร้างตัวตนของผู้สูงอายุที่เสียชีวิตในรูปแบบดิจิทัล

แน่นอนการมีโอกาสได้กลับไปพูดคุยกับคนที่จากไปแล้วอีกครั้งถือเป็นความฝันสำหรับหลายท่าน ช่วยให้คนที่ยังมีชีวิตได้พูดคุยเรื่องค้างคาใจที่ไม่มีโอกาสได้พูดไป ถามข้อสงสัยในสิ่งที่ไม่เคยรู้ คลายความทุกข์ใจ ไปจนเป็นโอกาสให้บอกลาที่ไม่ได้ทำเพื่อให้ไม่เหลือเรื่องค้างคา

อย่างไรก็ตามในมุมมองของหลายภาคส่วนกลับมองว่า Deadbots อาจไม่ดีอย่างที่คิด

จากนี้ความตายอาจไม่เป็นของเรา

จากข้อมูลข้างต้น Deadbots อาศัยข้อมูลดิจิทัลในช่วงที่เรายังมีชีวิตป้อนสู่ระบบ ทำให้เกิด Chatbot ที่มีแนวคิด คำพูด และการตอบสนองโดยอ้างอิงจากข้อมูลของเป้าหมายสมัยยังมีชีวิต ในทางหนึ่งคือการอาศัยข้อมูล Digital footprint ที่หลงเหลือ หรือก็คือการนำข้อมูลส่วนตัวมาใช้งานเพื่อสร้างตัวตนใหม่

นี่จึงนำไปสู่การตั้งคำถามทางจริยธรรมในหลายด้าน ตั้งแต่เรื่องสิทธิของข้อมูลส่วนตัว เมื่อการพัฒนา Deadbots แต่ละครั้งต้องใช้ข้อมูลส่วนตัวของผู้เสียชีวิต นั่นนำไปสู่การตั้งคำถามว่า การสร้าง Deadbots ขึ้นมาในแต่ละครั้งใครควรเป็นผู้ให้ความยินยอมในการเข้าถึงและใช้งานข้อมูล

โดยมากในขั้นตอนการสร้าง Deadbots ผู้ให้ความยินยอมมักเป็นญาติ เพื่อนสนิท หรือคนรู้จักกับผู้เสียชีวิต ด้วยเหตุเสียชีวิตที่ทำให้พวกเขาทำใจไม่ได้ล้วนเป็นการเสียชีวิตกระทันหันที่ไม่ได้เตรียมใจล่วงหน้า การนำข้อมูลเหล่านี้มาใช้โดยไม่รับอนุญาตอาจละเมิดความเป็นส่วนตัว เป็นการไม่เคารพสิทธิส่วนบุคคล และไม่ให้ความเคารพผู้เสียชีวิตหรือไม่?

ในทางกลับกันหากตัวผู้เสียชีวิตเป็นคนอนุมัติให้สร้าง Deadbots ขึ้นมาเอง แม้อาจช่วยบรรเทาผลกระทบทางอารมณ์และจิตใจต่อคนรอบข้างในช่วงแรก แต่ในระยะยาวอาจนำไปสู่ภาระทางจิตใจในการต้องพูดคุยตอบโต้กับภาพแทนของผู้เสียชีวิต ซึ่งอาจทำให้เกิดความรู้สึกผิดได้

ยกตัวอย่างเช่น การยกเลิกใช้บริการโซเชียลเน็ตเวิร์คสักเจ้า การยกเลิกถูกออกแบบให้ลำบาก ซับซ้อน และกินเวลาค่อนข้างมากเพื่อดึงผู้ใช้ให้อยู่กับเว็บไซต์นานเท่าที่ทำได้ หากสิ่งเหล่านี้เปลี่ยนจากข้อความตัวอักษรเป็นเสียงและภาพของผู้เสียชีวิต ก็อาจทำให้เกิดความรู้สึกผิดในการจัดการจนส่งผลกระทบต่อจิตใจต่อไป

นอกจากจะผิดเพี้ยนไปจากจุดประสงค์ตั้งต้นในการเริ่มใช้งาน Deadbots แล้ว ยังนำไปสู่การตั้งคำถามว่า เราอาจไม่ใช่ผู้กำหนดอีกต่อไปว่าเราจะตายทางโลกดิจิทัลเมื่อใด แต่เป็นครอบครัว คนรอบข้าง หรือคนใกล้ตัวต่างหากที่มีสิทธิตัดสินใจ

เมื่อ Deadbots ส่งผลกระทบต่อทั้งคนตายและคนเป็น

สำหรับท่านที่ใช้งานและคุ้นเคยกับ AI Chatbots ย่อมทราบดี ไม่มีปัญญาประดิษฐ์ตัวไหนจะไม่เกิดอาการหลอน ถูกหลอกล่อ หรือให้ข้อมูลผิดพลาด และเมื่อเทคโนโลยีนี้ถูกนำมาใช้ในฐานะ Deadbots ย่อมนำไปสู่การตั้งคำถามว่า จะเป็นอย่างไรหากบุคคลถูกที่จำลองขึ้นมาแสดงอาการเหล่านี้

จริงอยู่ต่อให้เป็นคนเราก็ใช่จะไม่เคยถูกต้องไปเสียทุกเรื่อง หลายครั้งที่เราทำเรื่องผิดพลาดจนต้องมีการแก้ไขอยู่เสมอ แต่เราทราบกันดีว่าการให้ข้อมูลของ Chabots มักเปี่ยมความมั่นใจจนสร้างข้อเท็จจริงปลอม จึงอาจทำให้ผู้ใช้งานที่อาจติดภาพของผู้เสียชีวิตเชื่อโดยไม่ทันไตร่ตรองจนเป็นอันตราย

สำหรับผู้ใช้บริการในช่วงแรกพวกเขาอาจรู้สึกยินดีกับการได้พูดคุยคนที่จากไปอีกครั้ง แต่เมื่อผ่านไปพักหนึ่งเมื่อพวกเขาทำใจได้ การตอบสนองและพูดคุยกับ Deadbots ต่อเนื่องอาจไม่ใช่เรื่องดี เพราะพวกเขาอาจไม่สามารถก้าวข้ามความเศร้าและการสูญเสียได้แต่ถูกตอกย้ำอย่างต่อเนื่อง

ส่วนคนตายที่เป็นต้นแบบ ในกรณีที่ปัญญาประดิษฐ์ซึ่งจำลองบุคลิกพวกเขาขึ้นมาเกิดอาการหลอน อาจทำให้ภาพลักษณ์และความรู้สึกของที่มีในสายตาของผู้มีชีวิตสั่นคลอน แทนที่การใช้งาน Deadbots จะช่วยบรรเทาผลกระทบจากการสูญเสีย อาจยิ่งเพิ่มความสับสนและวิตกกังวล เพราะข้อมูลที่ถูกนำมาคุยอาจเป็นสิ่งที่ไม่ได้เกิดขึ้นจริง

นอกจากนี้หาก Deadbots ถูกนำไปใช้โน้มน้าวในทางไม่เหมาะสม เช่น ใช้ในการโฆษณา ถูกแทรกแซงให้ฝังชุดความคิดหรือความเชื่อบางรูปแบบ หรือแม้แต่การเผลอพูดทำร้ายจิตใจผู้ใช้งาน ในรูปลักษณ์และสถานะของคนใกล้ชิด ก็อาจสร้างผลกระทบต่อจิตใจและพฤติกรรมของผู้ใช้งาน โดยประเด็นปัญหาทั้งหมดนี้เป็นสิ่งที่ผู้เสียชีวิตไปแล้วไม่อาจยุ่งเกี่ยวหรือรับรู้อะไรได้อีกด้วย

ด้วยเหตุนี้เราจึงต้องเริ่มมองหาการตีกรอบและกฎหมายควบคุมกันโดยด่วน เพราะนี่ไม่ใช่เพียงสิ่งที่จะเกิดขึ้นในอนาคตแต่เริ่มพร้อมให้บริการแล้วในบางพื้นที่ และจะยิ่งทวีความรุนแรงมากขึ้นจากการขยายตัวของเทคโนโลยีจนเราอาจไม่สามารถแยกแยะ Deadbots ออกจากคนจริงอีกต่อไป

อย่างไรก็ตาม เราปฏิเสธไม่ได้เช่นกันหากใช้งานอย่างถูกวิธี Deadbots ก็เป็นอีกหนึ่งวิธีรับมือความโศกเศร้าที่มีประโยชน์อย่างยิ่งในการรักษาอาการทางจิตต่างๆ

แหล่งข้อมูล

https://www.posttoday.com/smart-life/709439