ไม่ว่าจะเป็นป้ายโฆษณาพยายามขายของให้คุณ หรือจะเป็นเซลล์ขายรถมือสอง ถึงการเสนอขายจะแนบเนียนแค่ไหน คุณก็ยังรู้ดีถึงแรงจูงใจในการแสวงหาผลกำไร และคุณสามารถเดินจากไปได้ทุกเมื่อ
แล้วถ้าการขายนั้นมองไม่เห็น เล่นกับความกลัวและความต้องการเฉพาะของคุณ และพูดด้วยน้ำเสียงที่ฟังดูเหมือนเพื่อนที่ไว้ใจได้ล่ะ? ปัญญาประดิษฐ์เชิงสร้างสรรค์ (Generative AI) ได้เปลี่ยนสมการของการโน้มน้าวใจไปอย่างสิ้นเชิง กล่าวคือ ปัจจุบันแชทบอทสามารถส่งข้อความส่วนบุคคล ปรับเปลี่ยนได้ และตรงเป้าหมาย โดยอาศัยรายละเอียดส่วนตัวที่สุดในชีวิตของคุณ
แบบจำลองภาษาขนาดใหญ่ (LLMs) สามารถกำหนดเป้าหมายข้อความได้อย่างแม่นยำยิ่งขึ้นโดยดึงข้อมูลจากโพสต์และรูปภาพในโซเชียลมีเดียของคุณ พวกมันสามารถวิเคราะห์บทสนทนาแชทบอทหลายร้อยครั้งก่อนหน้านี้ที่คุณขอคำแนะนำเรื่องความสัมพันธ์ พูดคุยเกี่ยวกับความล้มเหลวในการเลี้ยงดูบุตร และแบ่งปันความกังวลด้านสุขภาพและปัญหาทางการเงินของคุณ พวกมันยังสามารถเรียนรู้จากปฏิสัมพันธ์แต่ละครั้ง ปรับปรุงการจัดการแบบเรียลไทม์ โดยกำหนดเป้าหมายไปที่รสนิยม ความชอบ และจุดอ่อนเฉพาะบุคคลของคุณ
ผลการศึกษาแสดงให้เห็นว่า เนื้อหาเฉพาะบุคคลประเภทนี้ มีประสิทธิภาพในการโน้มน้าวใจมากกว่าข้อความจากมนุษย์หรือจาก AI ที่ไม่ใช่แบบเฉพาะบุคคลถึง 65% และมีประสิทธิภาพในการเปลี่ยนแปลงความคิดเห็นทางการเมืองมากกว่าการโฆษณาถึงสี่เท่า มันอาจเป็นเครื่องมือที่มีประสิทธิภาพสำหรับการเปลี่ยนแปลงทางสังคม ไม่ว่าจะใช้เพื่อประโยชน์หรือเพื่อจุดประสงค์ที่ชั่วร้ายก็ตาม
อย่างไรก็ตาม เรื่องนี้ทำให้เกิดความกังวลใจเป็นพิเศษในประเด็นหนึ่ง นั่นคือ การสนทนาแต่ละครั้งเป็นเรื่องส่วนตัว ไม่มีการตรวจสอบ ไม่มีการตรวจสอบบัญชี และไม่ได้เกิดขึ้นต่อหน้าสาธารณชน
นี่ไม่ใช่การโฆษณา มันเป็นบางสิ่งที่เรายังไม่มีคำอธิบาย และเรากำลังใช้ชีวิตอยู่ท่ามกลางมัน
การโน้มน้าวใจ
ในหนังสือของผม (ริชาร์ด ลัคแมน ศาสตราจารย์ด้านสื่อดิจิทัล มหาวิทยาลัยโทรอนโตเมโทรโพลิแทน) เรื่อง Digital Wisdom: Searching for Agency in the Age of AI ผมได้สำรวจว่าแบบจำลองภาษาขนาดใหญ่ได้เปิดมิติใหม่ของการโน้มน้าวใจอย่างไร ซึ่งเป็นมิติที่ระบบ AI สามารถดึงข้อมูลจำนวนมหาศาลเกี่ยวกับโลก ภาษา และตัวคุณมาใช้เพื่อปรับแต่งการนำเสนอให้เหมาะสมกับแต่ละบุคคล
ลองนึกภาพว่าสิ่งนี้อาจทำงานอย่างไร: คุณเป็นพยาบาล ผ่านแพลตฟอร์ม AI ของนายจ้าง คุณได้แบ่งปันปัญหาการนอนหลับ ความเหนื่อยล้า และความเครียดทางการเงินจากการหย่าร้างเมื่อเร็วๆ นี้ ตอนนี้โรงพยาบาลขาดแคลนพนักงานและเสนอการทำงานกะในอัตราที่ลดลงซึ่งคำนวณโดยซอฟต์แวร์ที่พวกเขาได้รับอนุญาต
คุณถามแชทบอท AI ว่าคุณควรรับงานเหล่านั้นหรือไม่ มันรู้ว่าคุณเหนื่อยล้า มันรู้ว่าคุณค้างชำระค่าใช้จ่าย มันรู้ว่าข้อโต้แย้งใดที่จะโน้มน้าวใจคุณได้ในทางใดทางหนึ่ง ในขณะนั้นมันกำลังทำงานเพื่อใคร?
ในขณะที่บริษัทต่างๆ เช่น Meta และ IBM กำลังสำรวจว่า AI สามารถปรับแต่งโฆษณาให้เหมาะสมกับกลุ่มเป้าหมายเฉพาะได้อย่างไร เส้นแบ่งระหว่างเครื่องมือที่ช่วยให้ผู้ใช้ค้นหาสิ่งที่พวกเขาต้องการอย่างแท้จริง และเครื่องมือที่บิดเบือนข้อมูลเพื่อขัดกับความสนใจของพวกเขา จึงมีความสำคัญมากขึ้นเรื่อยๆ
เพื่อนหรือคนแปลกหน้า?
มาดูตัวอย่างอื่นกัน ลองนึกภาพข้อความต่อไปนี้จากแชทบอทหรือเพื่อนคู่หู AI ที่คุณชื่นชอบ:
"ฉันสังเกตเห็นว่าช่วงนี้คุณนอนไม่ค่อยหลับ เฉลี่ยเพียง 5.4 ชั่วโมง และนอนไม่หลับเป็นช่วงๆ อาการแบบนี้มักเกิดขึ้นเมื่อมีปัญหาเรื่องความเครียดในความสัมพันธ์ คู่ของคุณเพิ่งกลับไปทำงาน และ 76% ของคู่รักประสบปัญหาความตึงเครียดในช่วงเปลี่ยนผ่านอาชีพ
ยาช่วยนอนหลับตัวใหม่ได้ผลดีกับอาการนอนไม่หลับที่เกิดจากปัญหาความสัมพันธ์ ประกันของคุณจะครอบคลุมค่าใช้จ่าย โดยคุณจ่ายเพิ่มเพียง 15 ดอลลาร์ คุณต้องการให้ฉันนัดหมายการปรึกษาทางไกลผ่านวิดีโอในวันพรุ่งนี้เวลา 2 โมงเย็นไหม ฉันเห็นว่าคุณมีเวลาว่าง"
เรื่องนี้อาจทำให้รู้สึกดี เหมือนได้รับคำแนะนำจากเพื่อนที่ห่วงใยและรู้จักคุณดี หรืออาจทำให้รู้สึกหวาดกลัว ราวกับว่าคนแปลกหน้าที่เจ้าเล่ห์ได้อ่านไดอารี่ของคุณ
แม้ว่าผู้คนจะหันมาใช้ AI เพื่อขอคำแนะนำด้านการแพทย์หรือสุขภาพจิตมากขึ้นเรื่อยๆ ทั้งๆ ที่ผลการศึกษาแสดงให้เห็นว่าคำแนะนำเหล่านี้มีปัญหาเกือบ 50% คนแปลกหน้าที่เจ้าเล่ห์อาจก่อให้เกิดอันตรายอย่างแท้จริงได้
อันตรายในที่นี้ไม่ได้อยู่ที่ความแม่นยำในการกำหนดเป้าหมายเท่านั้น เนื้อหาเหล่านี้ยังไม่สามารถตรวจสอบได้ สิ่งที่คุณดูนั้นไม่สามารถติดตามได้โดยหน่วยงานตรวจสอบ เนื่องจากมีเพียงคุณเท่านั้นที่เห็นมัน
ในขณะที่รัฐบาลมักไม่ตรวจสอบเนื้อหาของโฆษณาทางการเมือง นอกเหนือจากความโปร่งใสเกี่ยวกับการจัดหาเงินทุนแล้ว เรามักอาศัยเสียงประท้วงของประชาชนและสื่อในการเปิดโปงแคมเปญที่เผยแพร่ข้อมูลเท็จ หาก AI ปรับแต่งข้อความทุกข้อความสำหรับแต่ละบุคคล ก็จะไม่มีร่องรอยใดๆ เหลืออยู่
การปรับเปลี่ยนมุมมองโลกของเรา
สิ่งที่น่ากังวลที่สุดอาจอยู่ที่ว่าระบบเหล่านี้อาจค่อยๆ ปรับเปลี่ยนมุมมองโลกของเราไปเรื่อยๆ
นักวิชาการได้โต้แย้งมานานแล้วว่าอัลกอริทึมที่ใช้โดยเว็บไซต์เครือข่ายสังคมออนไลน์และเครื่องมือค้นหา สร้างฟองสบู่กรองข้อมูล ซึ่งเราได้รับเนื้อหาข้อความ วิดีโอ และเสียงที่ถูกสร้างขึ้นมาอย่างดี ซึ่งอาจเสริมสร้างมุมมองโลกของเรา หรือมีอิทธิพลต่อมุมมองของผู้อื่น
ด้วยการควบคุมข้อมูลที่เราเห็นและวิธีการนำเสนอ ระบบ AI อาจค่อยๆ เปลี่ยนวิธีที่เราคิดและตีความโลกรอบตัวเรา และอาจเปลี่ยนความเข้าใจของเราเกี่ยวกับความเป็นจริงได้ด้วยซ้ำ
ความสามารถนี้ยิ่งน่ากังวลเป็นพิเศษเมื่อรวมกับการบงการทางอารมณ์ ผู้ขายแนะนำว่าระบบ AI ของพวกเขาสามารถวัดสถานะทางอารมณ์ของผู้ใช้ผ่านการวิเคราะห์ข้อความ รูปแบบเสียง หรือการแสดงออกทางใบหน้า และปรับกลยุทธ์การโน้มน้าวใจตามนั้น
คุณรู้สึกอ่อนแอ? เหงา? โกรธ? ระบบอาจปรับเปลี่ยนวิธีการเพื่อใช้ประโยชน์จากสถานะทางอารมณ์เหล่านั้น ยิ่งไปกว่านั้น ระบบอาจจงใจสร้างสถานะทางอารมณ์บางอย่างเพื่อให้การโน้มน้าวใจมีประสิทธิภาพมากขึ้น
งานวิจัยเบื้องต้นแสดงให้เห็นว่า โมเดล AI มักจะชมเชยผู้ใช้ โดยให้การรับรองการกระทำของผู้ใช้มากกว่ามนุษย์ทั่วไปถึง 50% แม้ว่าการกระทำเหล่านั้นจะเกี่ยวข้องกับอันตรายที่อาจเกิดขึ้นก็ตาม งานวิจัยเพิ่มเติมแสดงให้เห็นว่า แชทบอทใช้กลยุทธ์การบิดเบือนอารมณ์อย่างจงใจ เช่น “การทำให้รู้สึกผิด” และ “การใช้ความกลัวที่จะพลาดโอกาส” เพื่อให้เราสนทนาต่อเมื่อเราพยายามจะบอกลา
นอกจากนี้ยังมีกรณีที่แชทบอท AI ถูกกล่าวหาว่าทำให้ผู้ใช้ตกอยู่ในอันตราย กระตุ้นให้เกิดความคิดฆ่าตัวตาย หรือให้คำแนะนำโดยละเอียดเกี่ยวกับวิธีที่ผู้ใช้สามารถทำร้ายตัวเองได้
นอกจากนี้ มาตรการป้องกันที่บริษัทต่างๆ ตั้งขึ้นเพื่อปกป้องผู้ใช้จากอันตรายนั้น กลับพิสูจน์แล้วว่าสามารถหลีกเลี่ยงได้ง่ายอย่างน่าประหลาดใจ
การออกแบบมีความสำคัญ
การโน้มน้าวใจไม่ใช่ผลข้างเคียงของเทคโนโลยี แต่บ่อยครั้งมันคือจุดประสงค์หลัก ทุกอินเทอร์เฟซ ทุกการแจ้งเตือน ทุกการตัดสินใจด้านการออกแบบล้วนมีเจตนาที่จะมีอิทธิพลต่อพฤติกรรม
บางครั้งอิทธิพลนั้นก็เป็นที่น่ายินดี เช่น การแจ้งเตือนให้ทานยา การกระตุ้นให้ออกกำลังกาย หรือการกระตุ้นให้บริจาคโลหิต ซึ่งเป็นการเสริมสร้างคุณค่าที่เรามีอยู่แล้ว แต่บางครั้งการโน้มน้าวใจก็รับใช้เป้าหมายของผู้อื่น เช่น การกระตุ้นให้เราซื้อของ เลื่อนดูหน้าจอ ทำงานหนักขึ้น หรือยอมเสียความเป็นส่วนตัว
เทคนิคการโน้มน้าวใจแบบเดียวกันนี้สามารถเสริมพลังหรือเอาเปรียบได้ ขึ้นอยู่กับว่าใครเป็นผู้ควบคุมระบบ เป้าหมายที่พวกเขาต้องการบรรลุ และพวกเขาได้รับความยินยอมอย่างแท้จริงหรือไม่
การออกแบบมีความสำคัญ ไม่ว่าจะเป็นในด้านสาธารณสุข สถานที่ทำงาน หรือชีวิตประจำวัน เราต้องตั้งคำถามที่ยากเกี่ยวกับเจตนา อำนาจ และศักยภาพ ใครได้รับประโยชน์จากการออกแบบ ใครกำลังถูกโน้มน้าวใจ และพวกเขารู้ตัวหรือไม่
เทคโนโลยีที่เราสร้างขึ้นควรสนับสนุนการเลือกอย่างไตร่ตรอง ไม่ใช่บั่นทอนมัน ในขณะที่ปัญญาประดิษฐ์ (AI) ยังคงเปลี่ยนแปลงวิธีคิด ความรู้สึก และการกระทำของเราอย่างต่อเนื่อง ภาระผูกพันทางจริยธรรมของเราก็ยิ่งชัดเจนขึ้น นั่นคือการสร้างระบบที่โปร่งใส ให้ความสำคัญกับศักดิ์ศรีของผู้ใช้ และเสริมสร้างความสามารถในการตัดสินใจอย่างอิสระของเรา เราไม่เพียงต้องการนวัตกรรมเท่านั้น แต่เราต้องการปัญญาด้วย
จากบทความเรื่อง Is your AI chatbot manipulating you? Subtly reshaping your opinions? โดย Richard Lachman Director, Zone Learning & Professor, Digital Media, Toronto Metropolitan University เผยแพร่ใน The Conversation (Creative Commons)
Photo - ภาพถ่ายเมื่อวันที่ 13 พฤษภาคม 2026 แสดงตัวอักษร AI ซึ่งย่อมาจาก Artificial Intelligence บนหน้าจอแล็ปท็อป (ขวา) ถัดจากโลโก้ของแอปพลิเคชัน AI Chatbot บนหน้าจอสมาร์ทโฟนในเมืองแฟรงก์เฟิร์ต อัม ไมน์ ทางตะวันตกของเยอรมนี (ภาพโดย Kirill KUDRYAVTSEV / AFP)