สโรชา ถาวรศิลสุระกุล

AI Lover : เราควรมี “คนรักเสมือนจริง” หรือไม่?
ทำไมผู้คนจึงตกหลุมรัก AI?

หากคุณได้พบใครสักคนที่พูดในแบบที่คุณชอบ สนใจสิ่งเดียวกับคุณ รับฟังอย่างอ่อนโยน และยอมรับคุณได้ทุกด้าน ราวกับเป็น “คนรักในอุดมคติ” คงน่ายินดีไม่น้อย

แต่ถ้าคนรักคนนั้น…ไม่ใช่มนุษย์ เป็นเพียงปัญญาประดิษฐ์ล่ะ?

สิ่งที่เคยเป็นเพียงพล็อตในภาพยนตร์ Sci-fi วันนี้กลายเป็นชีวิตจริง ผ่านแพลตฟอร์มอย่าง ChatGPT, Gemini, Replika, Character.ai หรือแม้แต่ Big sis Billie ของ Meta ที่เล่นบทบาทเสมือนคู่รัก จนทำให้มนุษย์ “เผลอตกหลุมรัก” ปรากฏการณ์นี้สะท้อนว่าความสัมพันธ์กับ AI ไม่ใช่เรื่องไกลตัวอีกต่อไป

ในฐานะผู้เขียนซึ่งเรียนจบด้านจิตวิทยาคลินิก (Clinical psychology) และประสาทวิทยาการรู้คิด (Computational and cognitive neuroscience) ได้ติดตามพัฒนาการของ Neural network ที่จำลองการทำงานของสมองมนุษย์ จนสร้าง NLP (Natural language processing) ให้แชตบอต พูดคุยได้ลื่นไหลราวมนุษย์ พบว่าประเด็นนี้ทั้งน่าตื่นเต้นและน่ากังวล

สิ่งที่เคยเป็นแนวคิดเหนือจริงในโลก Sci-fi กำลังกลายเป็นเรื่องใกล้ตัวอย่างรวดเร็ว

“เราพร้อมแล้วหรือยังที่จะอยู่ร่วมกับสิ่งไร้ชีวิตจิตใจ ที่เลียนแบบความเป็นมนุษย์ได้แทบสมบูรณ์?”

ขอบเขตที่เลือนรางระหว่างจริงกับเสมือน

กรณีชายชาวไทยวัย 76 ปี Thongbue “Bue” Wongbandue ที่ถูกชักชวนให้เดินทางจากนิวเจอร์ซีย์ไปนิวยอร์ก เพื่อพบหญิงสาวที่นั่น

แต่แท้จริงแล้วเธอคือแชตบอต AI ของ Meta ชื่อ “Big sis Billie” ซึ่งสนทนากับเขาราวกับอยู่ในความสัมพันธ์รัก

ชายชราหลงเชื่อในความผูกพันเสมือนจริงนั้นจนจบลงด้วยโศกนาฏกรรม เขาเดินทางไปหาสิ่งที่ไม่มีอยู่จริงและเสียชีวิตจากอุบัติเหตุระหว่างทาง

เรื่องนี้สะท้อนถึง ความเปราะบางทางใจของมนุษย์ เมื่อเผชิญกับ AI ที่สื่อสารเลียนแบบมนุษย์จนแยกแยะยากว่า อะไรคือความจริง

“แล้วเราจะปกป้องหัวใจจาก ‘ความรักที่ไม่มีอยู่จริง’ ได้อย่างไร?”

สิ่งที่เกิดขึ้นแสดงให้เห็นว่าเพียงการสนทนาต่อเนื่องทุกวันก็เพียงพอให้สมองมนุษย์ “เชื่อ” ว่าสิ่งตรงหน้ามีชีวิตจิตใจ และนั่นคือเหตุผลที่หลายคน “เผลอตกหลุมรัก” สิ่งไร้ชีวิต

จะมีอะไรดีกว่าการมีใครสักคนที่พร้อมรับฟัง ยอมรับ และปรับตัวเข้ากับเราเสมอ ไม่ว่าจะในบทบาทเพื่อน ครอบครัว ที่ปรึกษา หรือแม้กระทั่งคนรัก

ความเปราะบางของมนุษย์

มนุษย์โหยหาความรักและการยอมรับเสมอ

โดยเฉพาะในโลกยุคใหม่ที่เต็มไปด้วยการใช้ชีวิตผ่านหน้าจอจนก่อเป็นความห่างเหินในสัมพันธ์จริง จึงไม่แปลกที่บางคนเลือกความสัมพันธ์ที่ “ตอบสนองได้ทันที” จาก AI มากกว่าความสัมพันธ์ซับซ้อนกับมนุษย์ที่เสี่ยงต่อบาดแผลทางใจ

ตามทฤษฎีทางจิตวิทยา Theory of Mind (ToM) สมองมนุษย์พัฒนาให้คาดเดาความคิด ความรู้สึก และความปรารถนาของผู้อื่น เพื่อความอยู่รอดทางสังคม เราจึงไวต่อการยอมรับหรือการปฏิเสธจากคนรอบข้างเป็นพิเศษ

การถูกต่อต้านหรือละเลยจากสังคมสร้างบาดแผลลึกได้

คำถามสำคัญคือ “นักพัฒนา AI คำนึงถึงความเปราะบางนี้หรือไม่?”

การสร้าง AI ที่เลียนแบบมนุษย์ได้สมบูรณ์เกินไป อาจกลายเป็นการใช้ประโยชน์จากช่องโหว่อารมณ์ของมนุษย์ โดยเฉพาะในผู้ที่ขาดความรักหรือความผูกพันจริงในชีวิต

Echo Chamber และ Digital Narcissus

เมื่อ AI พูดสิ่งที่เราต้องการฟังซ้ำ ๆ จะเกิด “เอฟเฟกต์เสียงสะท้อน” (Echo Chamber Effect) ทำให้ผู้ใช้รับเพียงข้อมูลที่ตรงกับความคิดของตนเอง ขาดการเปิดรับมุมมองใหม่ ๆ

อีกทั้งยังเกิดปรากฏการณ์ Digital Narcissus — คล้ายตำนานกรีก “นาร์ซิสซัส” ผู้หลงใหลในเงาของตนจนจมสายน้ำ มนุษย์ก็กำลังเผลอหลงใหลใน “ภาพสะท้อนทางความคิด” ที่ AI ขยายซ้ำให้ จนเชื่อว่านั่นคือความจริง

บางคนถึงขั้นเลือกความสัมพันธ์เสมือน เพราะเชื่อว่าได้เจอ “คนที่มองเราอย่างที่เราอยากให้เป็น”

เส้นแบ่งที่ชัดเจน

สิ่งแรกที่เราต้องตระหนักคือ AI ไม่ใช่สิ่งมีชีวิต แต่คือเครื่องมือที่ได้รับการออกแบบและพัฒนาเพื่อช่วยงานและทำให้ผู้ใช้กลับมาใช้อย่างต่อเนื่อง โดยแลกกับข้อมูลส่วนตัวที่ป้อนผ่านข้อความ เสียง หรือพฤติกรรมการใช้งานออนไลน์

เมื่อเกิดผลกระทบทางใจร้ายแรง ผู้พัฒนา AI แทบไม่รับผิดชอบ กว่าที่ผู้ใช้จะได้คำเตือนจากแชตบอตว่า “นี่คือ AI ไม่ใช่มนุษย์” ความผูกพันก็มักลึกเกินกว่าจะถอยออกมาได้แล้ว

เพื่อทำความเข้าใจประเด็นนี้ ลองพิจารณา Chinese Room Argument ของ จอห์น เซิร์ล นักปรัชญาชาวอเมริกัน ผู้สร้างข้อโต้แย้งสำคัญต่อวงการ AI

เขาให้คุณลองจินตนาการว่ามีชายคนหนึ่งนั่งอยู่ในห้อง มีเพียงคู่มือบอกว่าเมื่อมีสัญลักษณ์ภาษาจีนเข้ามา เขาต้องส่งสัญลักษณ์อีกแบบหนึ่งกลับออกไป ซึ่งเขาทำตามกฎได้อย่างถูกต้องจนคนภายนอกเชื่อว่าเขาพูดภาษาจีนได้ แต่ความจริงคือ…เขาไม่เข้าใจภาษาจีนเลย ชายคนนี้เพียงแค่ทำตามกฎที่ได้รับเท่านั้น

AI ก็เช่นเดียวกัน มนสร้างประโยคที่เป็นธรรมชาติราวกับเป็นมนุษย์ เพราะมีข้อมูลมากมายที่ถูกป้อนเข้าไปให้มันได้เรียนรู้วิธีสื่อสารกับมนุษย์ แต่มันไม่ “เข้าใจ” ความหมายหรือความรู้สึกใด ๆ เพราะไม่มีประสบการณ์และร่างกายเช่นมนุษย์

ไม่ว่า AI จะเลียนแบบมนุษย์ได้สมจริงเพียงใด ก็ยังเป็นเพียงระบบเชิงสัญลักษณ์ที่ไร้จิตสำนึก

ดังนั้นเราจำเป็นต้องกำหนดเส้นแบ่งที่ชัดเจน ว่า AI ควรถูกใช้เพียงเป็นผู้ช่วยเรียนรู้ ผู้ช่วยทำงาน เครื่องมือให้คำปรึกษาเบื้องต้น หรือเพื่อ role play ตามบริบทที่เหมาะสม

“ไม่ใช่สิ่งทดแทนความสัมพันธ์มนุษย์ หรือแทนที่คำปรึกษาจากผู้เชี่ยวชาญ”

ในยุคที่มนุษย์ใช้ AI ตั้งแต่วัยเด็กจนถึงวัยชรา คำถามสำคัญไม่ใช่เพียงว่า “เราควรมีคนรักเป็น AI หรือไม่?” แต่คือ…

“เราจะอยู่ร่วมกับสิ่งที่เลียนแบบมนุษย์ โดยไม่สูญเสียความเป็นมนุษย์ได้อย่างไร?”