เด็ก 93% เสี่ยงตกเป็นเหยื่อออนไลน์ เมื่อ AI ทำให้ “สิ่งที่เห็น” ไม่น่าเชื่อถืออีกต่อไป

เด็กประถมกว่า 93% ทั่วโลก กำลังตกอยู่ในความเสี่ยงจากการแสวงหาประโยชน์ทางเพศบนโลกออนไลน์
ตัวเลขนี้ไม่ได้มาจากความกลัวลอย ๆ แต่เป็นข้อมูลจากเครือข่าย INHOPE ที่ทำงานต่อต้านสื่อลามกอนาจารเด็กใน 57 ประเทศทั่วโลก และสิ่งที่ทำให้สถานการณ์น่ากังวลยิ่งขึ้น คือ AI กำลังถูกใช้เป็นเครื่องมือเร่งความรุนแรงของปัญหาอย่างที่ไม่เคยเกิดขึ้นมาก่อน

ในประเทศไทย ภาพ เสียง และวิดีโอปลอมที่สร้างด้วย AI ถูกนำมาใช้หลอกลวงในหลากหลายรูปแบบ ตั้งแต่การปลอมเสียงแพทย์เพื่อบิดเบือนข้อมูลบุหรี่ไฟฟ้า ปลอมตัวเป็นนักธุรกิจชวนลงทุน ไปจนถึงการสร้างสื่อลามกอนาจารจากภาพเด็กจริง เพื่อข่มขู่และกรรโชกทรัพย์

นี่ไม่ใช่แค่ภัยไซเบอร์
แต่คือภัยที่กำลังทำลาย ศักดิ์ศรี ความปลอดภัย และอนาคตของเด็กและเยาวชน

9Conversations นำเนื้อหาจากงาน ในวันอินเทอร์เน็ตปลอดภัยแห่งชาติ ปี 2569
โดย สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) ร่วมกับ มูลนิธิอินเทอร์เน็ตร่วมพัฒนาไทย, ยูนิเซฟ ประเทศไทย, สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) และภาคีเครือข่าย จัดงาน Safer Internet Day Thailand 2026 (SIDTH 2026) ภายใต้แนวคิด  “Too Good to Be True : ไม่ใช่ทุกสิ่งที่เห็นบนโลกออนไลน์จะเป็นเรื่องจริง”

เวทีนี้ไม่ได้ตั้งคำถามแค่ว่า “จะป้องกันอย่างไร”
แต่ชวนสังคมกลับมามองว่า เรากำลังออกแบบโลกดิจิทัลให้ใครอยู่ และใครเสี่ยง

ว่าที่ร้อยตรี ธนะสิทธิ์ เอี่ยมอนันชัย รองปลัดกระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม ย้ำจุดยืนในการยกระดับความปลอดภัยทางไซเบอร์เป็น “วาระแห่งชาติ”เพื่อรับมือภัยคุกคามออนไลน์ที่ซับซ้อนขึ้นจาก AI และ Deepfake ทิศทางสำคัญคือการทำงานเชิงรุกใน 5 ด้าน

  1. การตัดวงจรอาชญากรรมออนไลน์ผ่านศูนย์ AOC 1441
  2. การวางรากฐานกฎหมายและ AI Governance
  3. การคุ้มครองข้อมูลส่วนบุคคลตาม PDPA
  4. การกำกับแพลตฟอร์มดิจิทัลข้ามชาติ
  5. การสร้างภูมิคุ้มกันดิจิทัลให้เด็ก เยาวชน และผู้สูงอายุ ภายใต้หลักคิด “ไม่เชื่อ ไม่รีบ ไม่โอน”

นพ.พงศ์เทพ วงศ์วัชรไพบูลย์ ผู้จัดการกองทุน สสส. ชี้ให้เห็นภาพที่น่ากังวลว่า จากสื่อต้องสงสัยกว่า 2.5 ล้านรายการทั่วโลก เด็กอายุ 3–13 ปี คือเหยื่อสูงถึง 93%

AI ไม่ได้แค่ทำให้ข่าวปลอมแพร่เร็วขึ้น แต่กำลังสร้างสื่อการล่วงละเมิดทางเพศที่ “เหมือนจริงจนแยกไม่ออก” และส่งผลกระทบต่อชีวิตเด็กในระยะยาวอย่างรุนแรง

สสส. จึงวางการทำงานไว้ 3 มิติ

  1. การผลักดันกฎหมายให้เท่าทันเทคโนโลยี
  2. การพัฒนาพลเมืองดิจิทัลและนักสื่อสารสุขภาวะรุ่นใหม่
  3. การสร้างระบบนิเวศสื่อที่ปลอดภัยและเอื้อต่อสุขภาวะ

เคน เลกินส์ ผู้อำนวยการองค์การยูนิเซฟ ประเทศไทย สะท้อนประเด็นสำคัญว่า “การคุ้มครองเด็กในโลกออนไลน์ ไม่ควรรอแก้หลังเกิดเหตุ แต่ต้องถูกฝังอยู่ในการออกแบบเทคโนโลยีตั้งแต่ต้น”

ทุกวันนี้ AI มีบทบาทมากขึ้น ความร่วมมือระหว่างรัฐ เอกชน แพลตฟอร์ม และสังคม จึงเป็นเงื่อนไขสำคัญ เพื่อให้เด็กทุกคนเข้าถึงโลกดิจิทัลอย่างปลอดภัย มีศักดิ์ศรี และสร้างสรรค์

ด้าน ETDA ชี้ว่า การรู้เท่าทันของผู้ใช้เพียงอย่างเดียวไม่เพียงพออีกต่อไป โลกดิจิทัลต้องมีกติกา ระบบ และการบังคับใช้กฎหมายที่เข้มแข็งควบคู่กัน โดยเฉพาะการกำกับแพลตฟอร์มดิจิทัล และการใช้ AI อย่างมีธรรมาภิบาล

เวทีนี้จึงเป็นมากกว่างานสัมมนาแต่คือพื้นที่เชื่อมโยงนโยบาย เทคโนโลยี และการปฏิบัติจริง
เพื่อสร้างระบบนิเวศดิจิทัลที่ “ปลอดภัยตั้งแต่การออกแบบ” 

โลกออนไลน์วันนี้ ไม่ใช่แค่พื้นที่สื่อสาร แต่เป็นพื้นที่ชีวิต และในวันที่ AI ทำให้ “สิ่งที่เห็น” ไม่น่าเชื่ออีกต่อไป
ความปลอดภัยจึงไม่ใช่ทางเลือก แต่คือเงื่อนไขพื้นฐานของสังคมดิจิทัล

SIDTH 2026 คือการย้ำว่า การปกป้องเด็กและกลุ่มเปราะบาง ต้องอาศัยความร่วมมือของทุกภาคส่วน ตั้งแต่ระดับนโยบาย เทคโนโลยี ไปจนถึงพฤติกรรมของผู้ใช้ทุกคน

ในช่วงไม่กี่ปีที่ผ่านมา “ภัยออนไลน์” ไม่ได้เป็นเพียงเรื่องของการหลอกลวงพื้นฐานอีกต่อไป แต่ได้พัฒนาไปพร้อมกับความก้าวหน้าของเทคโนโลยีปัญญาประดิษฐ์ (AI) จนกลายเป็นความท้าทายเชิงโครงสร้างที่สังคมไทยต้องเผชิญอย่างจริงจัง

จากข้อมูลเคสที่มีการร้องเรียนเข้ามาจำนวนมาก พบว่าปัญหาหลักยังคงวนเวียนอยู่กับการซื้อสินค้าไม่ตรงปก และการหลอกให้ลงทุน ซึ่งสะท้อนให้เห็นว่าภัยออนไลน์ยังคงโจมตี “ความเชื่อใจ” ของผู้คนเป็นหลัก เพียงแต่ในปัจจุบัน เครื่องมือที่ผู้กระทำผิดใช้มีความซับซ้อนและแนบเนียนยิ่งขึ้น

– เมื่อ AI กลายเป็นเครื่องมือในการกระทำผิด

เจ้าหน้าที่จากกรมสอบสวนคดีพิเศษ (DSI) มองย้อนกลับไปในช่วงกว่า 10 ปีก่อน ซึ่งเป็นยุคที่ AI ยังไม่ได้เข้ามามีบทบาทอย่างแพร่หลาย จะพบว่ายังไม่ปรากฏการใช้เทคโนโลยีลักษณะนี้เพื่อการกระทำผิดอย่างเป็นรูปธรรม แต่เมื่อ AI เริ่มเข้ามามีบทบาทในชีวิตประจำวัน เทคโนโลยีเดียวกันนี้ก็ถูกนำมาใช้เป็น “เครื่องมือ” ในการหลอกลวงและอำพรางตัวตนของผู้กระทำผิดมากขึ้นอย่างชัดเจน

หนึ่งในประเด็นที่น่ากังวลอย่างยิ่ง คือ การล่วงละเมิดทางเพศออนไลน์ ซึ่งในอดีตถือเป็นปัญหาที่เพิ่งเริ่มถูกพูดถึง และยังไม่รุนแรงหรือเกิดขึ้นถี่เท่าปัจจุบัน การมาของ AI โดยเฉพาะการสร้างภาพ เสียง หรือคอนเทนต์ปลอม (synthetic content) ทำให้การล่วงละเมิดมีความซับซ้อน รุนแรง และสร้างผลกระทบทางจิตใจต่อเหยื่อมากขึ้นกว่าเดิมหลายเท่า

– กระบวนการทำผิดง่าย แต่การเอาผิดกลับยาก

อีกหนึ่งช่องว่างสำคัญคือข้อจำกัดของการบังคับใช้กฎหมาย เจ้าหน้าที่หน้างานจำนวนมากไม่สามารถระบุตัวตนผู้กระทำผิดได้ เนื่องจากการใช้เทคโนโลยีอำพรางตัวตน การกระทำผิดข้ามพรมแดน และการใช้แพลตฟอร์มที่อยู่นอกอำนาจศาลของประเทศไทย ส่งผลให้หลายคดีไม่สามารถดำเนินการต่อได้ และบางคดีจำเป็นต้องปิดลง แม้จะมีผู้เสียหายเกิดขึ้นจริง

ยิ่งไปกว่านั้น การเก็บพยานหลักฐานในยุคดิจิทัลกลับเป็นเรื่องยากกว่าที่คิด หลักฐานสามารถถูกลบ แก้ไข หรือทำลายได้อย่างรวดเร็ว ขณะที่กระบวนการทางกฎหมายยังต้องใช้เวลาและขั้นตอนจำนวนมาก ความไม่สมดุลนี้ทำให้ผู้กระทำผิดได้เปรียบอย่างเห็นได้ชัด

– ความท้าทายของแพลตฟอร์ม AI และทางออกในอนาคต

ในอีกด้านหนึ่ง แพลตฟอร์ม AI เองก็ไม่ได้มีแต่ด้านลบ เทคโนโลยีเหล่านี้สร้างประโยชน์มหาศาลทั้งในเชิงเศรษฐกิจ การศึกษา และการสื่อสาร อย่างไรก็ตาม ความท้าทายที่สำคัญที่สุดคือ “ความเร็ว” และ “รูปแบบ” ของคอนเทนต์ที่ AI สามารถสร้างขึ้นได้ ซึ่งมีความครีเอทีฟและสมจริงจนยากต่อการแยกแยะว่าอะไรคือของจริง อะไรคือของปลอม

ทางออกของประเทศไทยจึงไม่อาจพึ่งพาเพียงการไล่ตามแก้ปัญหาเชิงคดีเท่านั้น แต่จำเป็นต้องขยับไปสู่การพัฒนาเชิงระบบ ตั้งแต่การปรับปรุงกฎหมายให้เท่าทันเทคโนโลยี การเสริมศักยภาพเจ้าหน้าที่ในการรับมืออาชญากรรมดิจิทัล ไปจนถึงการสร้างภูมิคุ้มกันทางดิจิทัลให้กับประชาชน

ในยุคที่ AI เป็นทั้ง “โอกาส” และ “ความเสี่ยง” การรับมือภัยออนไลน์จึงไม่ใช่หน้าที่ของหน่วยงานใดหน่วยงานหนึ่ง แต่เป็นโจทย์ร่วมของทั้งรัฐ แพลตฟอร์มเทคโนโลยี และสังคมโดยรวม เพื่อให้เทคโนโลยีก้าวไปข้างหน้าโดยไม่ทิ้งความปลอดภัยของมนุษย์ไว้เบื้องหลัง


#9Conversations #SIDTHailand2026 #SIDTH2026 #TooGoodToBeTrue #ดีเกินจริงคือไม่จริง #คิดเช็กชัวร์คลิก