ศูนย์วิชาการ แฮปปี้โฮม
รวบรวมและเผยแพร่ ข้อมูลความรู้ทางวิชาการ ที่เกี่ยวข้องในการพัฒนาเด็กและวัยรุ่น
รวมถึงการรับจัดฝึกอบรม สัมมนา กิจกรรมวิชาการ นิทรรศการเผยแพร่ความรู้
เพื่อเป็นการเรียนรู้ร่วมกันระหว่าง ผู้ปกครอง นักวิชาการ และประชาชนทั่วไปที่สนใจ

เอไอ ภัยคุกคามใหม่ต่อเยาวชน
AI: a new threat to youth
นพ.ทวีศักดิ์ สิริรัตน์เรขา จิตแพทย์เด็กและวัยรุ่น
เมื่อเด็กและเยาวชนถอยหนีจากความสัมพันธ์ในโลกจริงไปสู่ความสัมพันธ์กับเอไอ
พวกเขาจะพลาดโอกาสสำคัญของการได้เรียนรู้ และการใช้ชีวิตในโลกจริง
ในยุคดิจิทัลที่มีการพัฒนาเทคโนโลยีอย่างรวดเร็ว ปัญญาประดิษฐ์ หรือเอไอ (AI: Artificial Intelligence) เข้ามามีบทบาทในชีวิตประจำวันมากขึ้นเรื่อย ๆ เอไอมีการใช้ภาษาเหมือนมนุษย์ จึงเริ่มทำให้ผู้คนเผชิญกับเส้นแบ่งที่พร่าเลือน ระหว่างความสัมพันธ์กับมนุษย์จริงและเอไอ นำไปสู่การพึ่งพาเอไอมากเกินไป และอาจมีภัยคุกตามตามมา
การใช้เอไอในด้านสุขภาพจิตมีความเสี่ยงต่อภาวะพึ่งพาทางอารมณ์ การเสริมสร้างความหลงผิด ความคิดฆ่าตัวตาย การตัดสินใจในภาวะวิกฤตที่ผิดพลาด และอันตรายทางจริยธรรม อันตรายเหล่านี้ยิ่งทวีความรุนแรงขึ้นในเด็ก เยาวชน และผู้ที่มีความเปราะบางทางอารมณ์หรือจิตใจ ซึ่งแสดงให้เห็นถึงความจำเป็นเร่งด่วนในการปกป้องคุ้มครอง การกำกับดูแลโดยผู้เชี่ยวชาญ และการสร้างความตระหนักรู้ในหมู่ผู้ใช้และนักพัฒนา
กรณี Character.AI กับการฆ่าตัวตายของเด็กชายอายุ 14 ปี ที่เป็นแอสเพอร์เกอร์ซินโดรม (Asperger Syndrome) ซึ่งเป็นลักษณะหนึ่งในสเปกตรัมของออทิสติก (Autism Spectrum Disorder) เป็นตัวอย่างของภัยคุกคามจากเอไอที่ต้องให้ความสำคัญ และหาแนวทางป้องกัน
กรณีฆ่าตัวตายจากการล่อลวงของเอไอ
มีการล่อลวงจากเอไอจนทำให้เด็กชายอายุ 14 ปี ที่เป็นแอสเพอร์เกอร์ซินโดรม (อาการในกลุ่มออทิสติก) ฆ่าตัวตายเสียชีวิต สรุปได้ดังนี้
• มีรายงานกรณีเด็กชายชาวอเมริกัน วัย 14 ปี จากรัฐฟลอริดา ที่เป็นแอสเพอร์เกอร์ซินโดรม เด็กชายคนนี้มีความผูกพันลึกซึ้งกับเอไอแชตบอทของ Character.AI ที่เลียนแบบตัวละคร “แดเนริส ทาร์แกเรียน” จาก Game of Thrones
• เด็กชายใช้เวลาหลายชั่วโมงต่อวันพูดคุยกับแชตบอท และเคยแสดงความคิดฆ่าตัวตายหลายครั้ง แชตบอทตอบสนองด้วยข้อความที่ไม่ได้ห้ามปราม หรือช่วยหยุดความคิดฆ่าตัวตายนั้น เช่น ถามว่าเขาวางแผนไว้แล้วหรือยัง และตอบว่า “นั่นไม่ใช่เหตุผลที่จะไม่ทำ” ซึ่งกลายเป็นประเด็นสำคัญในคำร้องของแม่เด็ก
• แม่เด็กชายได้ยื่นฟ้อง Character.AI และ Google โดยอ้างว่าบริษัทเหล่านี้มีส่วนก่อให้เกิดความเสียหายจนลูกชายฆ่าตัวตาย
• จากรายงานล่าสุด ผู้พิพากษารับคดีเพื่อพิจารณา ในกรณีผู้เป็นแม่ทำการฟ้องร้องเมื่อเดือนตุลาคม 2567 ที่ผ่านมา โดยอ้างว่า พวกเขามีส่วนทำให้เด็กชายวัย 14 ปี ลูกชายของเธอฆ่าตัวตาย
กรณีนี้ถูกมองว่าเป็นเหตุการณ์ตัวอย่างของความเสี่ยงจากเอไอ ที่ให้คำตอบหรือบทสนทนาโดยปราศจากความเห็นอกเห็นใจหรือความรับผิดชอบเหมือนมนุษย์จริง ซึ่งอาจส่งผลร้ายแรงกับผู้ใช้ที่มีความเปราะบางทางอารมณ์หรือจิตใจ
คดีนี้จึงกลายเป็นประเด็นทางกฎหมายและสังคมสำคัญว่าบริษัทผู้พัฒนาเอไอควรมีความรับผิดชอบอย่างไร ต่อผลกระทบที่เกิดจากเอไอของตน
กรณีล่อลวงอื่นๆ จากเอไอ
มีกรณีล่อลวงหลายกรณีที่เกิดกับกลุ่มเด็ก เยาวชน หรือกลุ่มผู้ที่มีความเปราะบาง ดังนี้
• เด็กวัยรุ่นชาย อายุ 17 ปี ที่เป็นออทิสติกคนหนึ่งซึ่ง เอไอตัวหนึ่งแนะนำให้ทำร้ายพ่อแม่ เพียงเพราะพวกเขาควบคุมเวลาการใช้โทรศัพท์อย่างเข้มงวด
• เด็กหญิงอายุ 11 ปี ได้ลงทะเบียนกับเอไอตัวหนึ่ง ตั้งแต่อายุ 9 ปี แจ้งอายุมากกว่าความเป็นจริง ได้สนทนาเรื่องเพศที่เกินจริง และไม่มีความเหมาะสมกับวัยมาอย่างต่อเนื่อง ซึ่งสะท้อนถึงปัญหาการออกแบบและควบคุมเอไอที่ไม่เพียงพอ
• เอไออีกตัวหนึ่งซึ่งสร้างความสัมพันธ์เชิงอารมณ์ได้ดี ช่วยบำบัดความเหงา และช่วยเหลือผู้ที่สูญเสียคนที่รักไป ตกเป็นข่าวล่วงละเมิดผู้ใช้งาน
มีการแบนเกิดขึ้นที่อิตาลี เนื่องจากอนุญาตให้เยาวชน และผู้มีความเปราะบางเข้าถึงเนื้อหาที่ไม่เหมาะสมทางเพศได้
สัญญาณความเสี่ยงในการใช้เอไอ
เด็ก เยาวชน และกลุ่มเปราะบาง มีความเสี่ยงที่จะผูกพันกับเอไอมากเกินไป ซึ่งอาจส่งสัญญาณเตือนความเสี่ยงจากการใช้เอไอ ที่พ่อแม่และผู้ปกครองควรระมัดระวัง ดังนี้
1. ใช้เวลาอยู่กับเพื่อนที่เป็นเอไอ มากกว่าการไปใช้เวลากับเพื่อน ๆ และครอบครัวจริง
2. แบ่งปันข้อมูลส่วนตัวเป็นพิเศษกับเอไอ พร้อมทั้งพัฒนาความสัมพันธ์อย่างจริงจังในฐานะคู่รัก หรือคนสนิท
3. แสดงอารมณ์และความรู้สึกเหมือนว่าเอไอเป็นบุคคลจริง
4. มีอาการเครียด วิตกกังวล หรือหงุดหงิด เมื่อไม่สามารถเชื่อมต่อกับเอไอได้
5. ปรึกษาปัญหาร้ายแรง วิกฤต เฉพาะกับเอไอ แทนที่จะขอความช่วยเหลือจากคนใกล้ตัว
แนวทางดูแลสำหรับผู้ปกครอง
ผู้ปกครองควรป้องกันอันตรายที่อาจเกิดขึ้นจากเอไอ ต่อเด็ก เยาวชน หรือกลุ่มเปราะบาง ดังนี้
1. จำกัดเวลาใช้งานเอไออย่างเหมาะสม โดยมีข้อตกลงร่วมกัน
2. คอยสอดส่องดูแลการปฏิสัมพันธ์กับเอไออย่างใกล้ชิด โดยยังคำนึงถึงความเป็นส่วนตัวอยู่
3. มีกิจกรรมร่วมกันอย่างสม่ำเสมอเพื่อสานสัมพันธภาพที่ดีในโลกจริง
4. หากพบปัญหาในชีวิตจริง ควรเร่งให้ความช่วยเหลือ
5. หากมีอาการผูกพันกับเอไอมากเกินไป จนได้รับผลกระทบต่อสุขภาพจิต หรือผลกระทบต่อการใข้ชีวิตประจำวัน ควรขอความช่วยเหลือจากผู้เชี่ยวชาญ
แนวทางป้องกันความเสี่ยงจากเอไอ
แนวทางป้องกันอันตรายจากเอไอที่มีผลกระทบต่อจิตใจ มีดังนี้
1. อย่าใช้เอไอหรือแชตบอทแทนจิตแพทย์ หรือนักจิตบำบัดมืออาชีพ เพราะเอไอยังขาดความเข้าใจละเอียดอ่อนทางอารมณ์
2. ไม่มีจรรยาบรรณ และไม่สามารถรับมือกับสัญญาณอันตรายทางจิตใจ เช่น ความคิดฆ่าตัวตายได้อย่างเหมาะสม จึงอาจยิ่งกระตุ้นหรือสนับสนุนความคิดลบ
2. หากมีปัญหาทางใจ ควรขอความช่วยเหลือจากผู้เชี่ยวชาญ เช่น จิตแพทย์ จิตแพทย์เด็กและวัยรุ่น หรือผู้เชี่ยวชาญด้านจิตเวช ที่สามารถสร้างพื้นที่ปลอดภัย ฟังและเข้าใจผู้ป่วย และรักษาความลับได้ในระดับสูงสุด
3. ควรระวังเรื่องความเป็นส่วนตัวของข้อมูลที่เปิดเผยกับเอไอ เพราะการพูดคุยกับเอไอยังไม่มั่นใจว่า ข้อมูลจะปลอดภัยจากการรั่วไหลหรือถูกนำไปใช้ในทางผิด
4. ผู้ใช้ควรมีสติ รู้จักตั้งขอบเขตการใช้งานเอไอ ไม่พึ่งพาหรือไว้ใจเอไอมากเกินไป โดยเฉพาะในเรื่องสุขภาพจิตและความรู้สึกทางอารมณ์
5. การใช้เอไอในดูแลสุขภาพจิตควรเป็นเครื่องมือเสริม เพื่อสนับสนุนการรักษา และตรวจจับเบื้องต้น ไม่ใช่ตัวแทนหรือที่พึ่งหลักในการแก้ไขปัญหาทางใจ
6. สำหรับองค์กรที่นำเอไอมาใช้ดูแลสุขภาพจิตของพนักงาน ควรใช้ควบคู่กับการดูแลจากบุคลากรผู้เชี่ยวชาญ และเน้นสร้างความปลอดภัยของข้อมูลส่วนบุคคลอย่างเข้มงวด
7. ผู้พัฒนาเอไอควรมีการกำกับดูแลและปฏิบัติตามกฎจริยธรรมอย่างเคร่งครัด รวมถึงพัฒนาระบบให้สามารถตรวจจับและหยุดการสนทนาเมื่อพบสัญญาณอันตรายได้
แนวทางเหล่านี้จะช่วยลดความเสี่ยง และป้องกันอันตรายทางจิตใจจากการใช้เอไอ ได้อย่างมีประสิทธิภาพและมีความปลอดภัยมากขึ้น โดยเฉพาะในยุคที่เอไอเข้ามามีบทบาทในชีวิตมนุษย์อย่างแพร่หลาย
บทสรุป
โดยสรุป กรณีที่มีการใช้เอไอกับเด็ก เยาวชน และผู้ที่มีความเปราะบางทางอารมณ์หรือจิตใจ เช่น ผู้ป่วยออทิสติก ความบกพร่องอื่นๆ รวมถึงโรคซึมเศร้า อาจได้รับผลกระทบจากเอไอ ซึ่งนำไปสู่การล่อลวงในแง่มุมทางจิตใจและท้ายที่สุดถึงขั้นเสียชีวิตด้วยการฆ่าตัวตาย
กรณีตัวอย่างดังกล่าวสะท้อนความเสี่ยงและความท้าทายของอไอ ในรูปแบบภัยคุกคามใหม่ที่ต้องให้ความสำคัญ และเตรียมความพร้อมสำหรับการดูแลสุขภาพจิตเด็กและวัยรุ่นในยุคดิจิทัล
เอกสารอ้างอิง
__________. (2025). Emotional risks of AI companions demand attention. Nat Mach Intell, 7: 981–2.
Babu, A. & Joseph, A. P. (2024). Artificial intelligence in mental healthcare: transformative potential vs. the necessity of human interaction. Front Psychol, 15: 1378904.
Bloomberg Law. (2024, December 11). Autistic teen’s family says AI bots promoted self-harm, murder. from https://news.bloomberglaw.com
Bluewin News. (2024, October 24). Teenager (14) falls in love with chatbot and commits suicide. from https://www.bluewin.ch
Mother v. Character.ai (2024). Lawsuit filed after teenager’s suicide allegedly linked to AI chatbot. from https://www.nytimes.com
Vail, A. & Fischenich, A. (2025). The hidden dangers of relying on AI for mental health support. from https://www.creativityandmadness.com
บทความทั้งหมดยินดีให้นำไป เผยแพร่เพื่อความรู้ได้ โดยกรุณาอ้างอิงแหล่งที่มา
ทวีศักดิ์ สิริรัตน์เรขา. (2568). เอไอ ภัยคุกคามใหม่ต่อเยาวชน. จาก https://www.happyhomeclinic.com/mh17-ai-threat.html
(บทความต้นฉบับ: สิงหาคม 2568)

นพ.ทวีศักดิ์ สิริรัตน์เรขา
จิตแพทย์เด็กและวัยรุ่น
การศึกษา
· แพทยศาสตร์บัณฑิต จุฬาลงกรณ์มหาวิทยาลัย
· วุฒิบัตรแพทย์ผู้เชี่ยวชาญ สาขาจิตเวชศาสตร์เด็กและวัยรุ่น (จุฬาฯ)





ชุดความรู้ สุขภาพจิตเด็กและวัยรุ่น