“นพดล” เตือนภัย Ai น่ากลัวกว่าที่คิด

ai

บทวิเคราะห์เชิงนโยบาย ภัยคุกคามจาก AI ต่อความมั่นคงปลอดภัยทางไซเบอร์ของประเทศไทยและประชาชน โดย ผศ.ดร.นพดล กรรณิกา อาจารย์รับเชิญบรรยายพิเศษ หลักสูตรการบริหารการรักษาความสงบเรียบร้อยของสังคมภาครัฐร่วมเอกชน (บรอ.) วิทยาลัยตำรวจ และที่ปรึกษาคณะทำงานฯ ของสำนักงานตำรวจแห่งชาติ

1.บทนำ

บนเส้นทางของความก้าวหน้าทางเทคโนโลยี มนุษย์ได้สร้างสิ่งที่เรียกว่า “ปัญญาประดิษฐ์” หรือ AI ขึ้นมา ด้วยความหวังว่ามันจะเป็นแรงเสริมในการสร้างอนาคตที่ชาญฉลาดขึ้น เร็วขึ้น และปลอดภัยขึ้น แต่เช่นเดียวกับเหรียญทุกเหรียญที่มีสองด้าน ด้านสว่างของ AI ย่อมหลีกไม่พ้นเงามืดของมัน…ในห้วงยามค่ำคืนที่ผู้คนโดยมากหลับใหล โลกไซเบอร์กลับไม่เคยหลับใหล อัลกอริทึมของ AI บางตัวกำลังทำงานอยู่เงียบ ๆ สร้างอีเมลปลอม เสียงปลอม ใบหน้าปลอม เพื่อหลอกลวง ให้คนจริงเจ็บจริง สูญเสียจริงภัยจาก AI ไม่ใช่จินตนาการในภาพยนตร์ไซไฟอีกต่อไป มันเป็นภัยเงียบจริงที่แนบเนียน เกิดขึ้นแล้วในหน่วยงานความมั่นคงของรัฐ ธนาคาร โรงเรียน บริษัท ห้างร้าน และแม้แต่ในบ้านของเราเอง

ในช่วงหลายปีที่ผ่านมาผมมีโอกาสศึกษาเรื่อง Data Science และระเบียบวิธีวิจัยเชิงสำรวจ ที่ University of Michigan และต่อเนื่องด้วยการศึกษาด้าน ความปลอดภัยทางไซเบอร์ (Cybersecurity) และการจัดการความเสี่ยง ณ มหาวิทยาลัย Georgetown University วอชิงตัน ดีซี สหรัฐอเมริกา พร้อมกับประสบการณ์ในแวดวงความมั่นคงทั้งในและนอกประเทศผมพบว่า ปัญหาใหญ่ไม่ใช่แค่ว่า “AI น่ากลัว”แต่คือ “คนส่วนใหญ่ยังไม่รู้ว่ามันทำอะไรได้บ้าง…และมาทางไหนไปทางไหน”

ในฐานะที่ปรึกษาคณะทำงานของสำนักงานตำรวจแห่งชาติผมเห็นความพยายามอันน่าชื่นชมของตำรวจไทยหลายคน ที่แม้จะเติบโตจากยุคเอกสาร แต่ก็กำลังก้าวเข้าสู่ยุคข้อมูลดิจิทัล ด้วยความมุ่งมั่นที่จะปกป้องประชาชนในสนามรบที่ไม่มีปืนแต่เต็มไปด้วยโค้ด (Coding) ตำรวจไม่ได้เฝ้าถนนอย่างเดียวอีกต่อไป พวกเขากำลังเฝ้าประตูไซเบอร์ของประเทศและอุปกรณ์ดิจิทัลบนฝ่ามือของประชาชนเอาไว้ด้วย

2.ข้อเท็จจริง

เมื่อ “ความฉลาด” กลายเป็นเครื่องมือของอาชญากร ความปลอดภัยในโลกดิจิทัลก็สั่นคลอนอย่างไม่เคยเป็นมาก่อน ปัญญาประดิษฐ์ (AI) ที่ถูกพัฒนามาเพื่ออำนวยความสะดวกให้มนุษย์ กำลังถูกพลิกใช้เป็นอาวุธล้ำยุคในการโจมตีที่ซับซ้อนและแนบเนียนยิ่งกว่าที่เคยจากผู้ไม่หวังดี

ภัยคุกคามจาก AI ไม่ใช่เรื่องไกลตัวอีกต่อไป เพราะเกิดขึ้นจริงแล้วในประเทศไทย ทั้งในระบบธนาคาร การค้าขายออนไลน์ ไปจนถึงระบบงานภาครัฐที่ยังไม่มีเกราะป้องกันที่เพียงพอ ตัวอย่างต่อไปนี้คือ 4 ลักษณะภัยคุกคามจาก AI ที่พบได้มากขึ้นเรื่อย ๆ และจำเป็นต้องเฝ้าระวังอย่างใกล้ชิด

1) Credential Stuffing และ Brute Force Attacks ด้วย AI

AI ถูกนำมาใช้วิเคราะห์ข้อมูลล็อกอินที่รั่วไหลจากเว็บไซต์และแอปพลิเคชันต่าง ๆ แล้วนำมาใช้ในการสุ่มเดารหัสผ่านและเจาะเข้าสู่บัญชีผู้ใช้งาน โดยเฉพาะในระบบธนาคาร, การซื้อขายออนไลน์ และระบบภาครัฐที่ยังไม่มีระบบ Multi-Factor Authentication (MFA) ที่เข้มแข็ง ยิ่งไปกว่านั้น ในห้วงเวลานี้ กำลังมีการพัฒนาควอนตัมคอมพิวเตอร์ ที่เปรียบเสมือน “กล้อง X-ray” ที่สามารถมองทะลุระบบเข้ารหัสเดิมทั้งหมด หากระบบ MFA พึ่งพาโครงสร้างความปลอดภัยที่ไม่รองรับโลกหลังควอนตัม ก็เสมือนใช้แม่กุญแจที่กุญแจหายาก แต่สุดท้ายก็ไขเจาะระบบได้ในเสี้ยววินาที

2) AI-Generated Phishing Emails

แฮกเกอร์สามารถใช้ Generative AI สร้างอีเมลที่มีเนื้อหาสมจริงทั้งในเชิงภาษาศาสตร์และการเลียนแบบรูปแบบธุรกิจ ทำให้ประชาชนตกเป็นเหยื่อได้ง่ายขึ้น โดยเฉพาะกลุ่มเป้าหมายที่ไม่ชำนาญเทคโนโลยี

3) Adversarial AI และ Data Poisoning

ภัยคุกคามรูปแบบนี้เกิดจากเจตนาใส่ข้อมูลเท็จหรือบิดเบือนเพื่อทำให้ระบบ AI ที่ใช้ในการตรวจจับภัยหรือวิเคราะห์พฤติกรรมทำงานผิดพลาด เช่น การป้อนข้อมูลเทียมให้ระบบกล้อง AI ไม่สามารถจดจำใบหน้าอาชญากรได้

4) AI-Enhanced Reconnaissance และ Deepfake Impersonation

มิจฉาชีพใช้ AI สืบค้นข้อมูลเป้าหมายจากหลายแหล่ง เช่น โซเชียลมีเดีย แล้วสร้างวิดีโอหรือเสียงปลอม เพื่อแอบอ้างเป็นผู้บริหาร ส่งอีเมลไปยังฝ่ายบัญชีให้โอนเงิน หรือหลอกขอรหัสผ่าน ผ่านการโทรด้วยเสียงปลอม

3.ข้อพิจารณา

การนำ AI มาใช้ในอาชญากรรมมีแนวโน้มเติบโตอย่างรวดเร็ว และแฝงตัวอยู่ในทุกภาคส่วนของสังคม ไม่ว่าจะเป็นภาครัฐ เอกชน หรือประชาชนทั่วไป ปัญหาหลักคือ “ความเร็วของเทคโนโลยีที่นำหน้ากฎหมายและมาตรการป้องกัน” โดยเฉพาะเมื่อ AI สามารถเรียนรู้ ปรับปรุง และเลี่ยงการตรวจจับได้เองอย่างอัตโนมัติ ความสามารถเชิงลึกของ AI ได้เปลี่ยนอาชญากรธรรมดาให้กลายเป็นภัยคุกคามระดับสูงภายในเวลาไม่นาน

ประเทศไทยยังมีการบูรณาการฐานข้อมูลภัยคุกคามจาก AI อย่างเป็นระบบที่มีประสิทธิภาพไม่เพียงพอ และมีการรับรู้ของประชาชนต่ำต่อภัยที่เกิดจาก การโจมตีด้วยข้อมูลปลอม หรือ Deepfake ระบบรักษาความปลอดภัยในบางหน่วยงานยังไม่รองรับภัยยุค AI อย่างเพียงพอ ซึ่งเสี่ยงต่อการถูกแทรกแซงโดยไม่รู้ตัว

4.ข้อเสนอแนะเชิงนโยบาย

ที่น่าพิจารณา คือ สำนักงานตำรวจแห่งชาติในยุค AI และหน่วยงานรัฐที่เกี่ยวข้องจำเป็นต้องแปลงบทบาทจากผู้ควบคุมพื้นที่สาธารณะ ไปสู่การเป็นผู้ควบคุมภัยคุกคามใน “พื้นที่ข้อมูล” โดยมีเครื่องมือคือปัญญาประดิษฐ์ มีพันธมิตรคือประชาชน และมีเป้าหมายคือความมั่นคงของชาติในโลกดิจิทัล การลงทุนในความรู้ การปฏิรูปเชิงโครงสร้าง และการเชื่อมโยงสู่สากล จะเป็นรากฐานสำคัญในการสร้าง “ตำรวจยุคดิจิทัล” ที่ไม่เพียงแต่รักษากฎหมาย แต่ยังสามารถ คาดการณ์ ป้องกัน และตอบโต้ภัยคุกคามทางไซเบอร์ ได้อย่างทันท่วงที ผ่านข้อเสนอแนะดังนี้

4.1 การสืบสวนและบังคับใช้กฎหมายเชิงลึก

การพัฒนา “กองบังคับการปราบปรามอาชญากรรมทางเทคโนโลยี” ให้กลายเป็นหน่วยงานที่ใช้เทคโนโลยี AI อย่างเต็มรูปแบบ เจ้าหน้าที่ควรสามารถวิเคราะห์พฤติกรรมของอาชญากรดิจิทัลได้ด้วยเครื่องมือใหม่ นอกจากนี้ การบูรณาการกับ “ศูนย์ AI Cyber Threat Intelligence” ที่ควรจัดตั้งโดยกระทรวงดิจิทัลฯ จะช่วยให้สำนักงานตำรวจแห่งชาติสามารถเข้าถึงข้อมูลภัยคุกคามแบบเรียลไทม์ และเชื่อมโยงฐานข้อมูลผู้กระทำความผิดข้ามพรมแดน

4.2 การป้องกันและสร้างภูมิคุ้มกันทางไซเบอร์

ในสงครามไซเบอร์ “การรับมือ” เพียงอย่างเดียวไม่เพียงพอ แต่จำเป็นต้อง “สร้างภูมิคุ้มกันเชิงรุก” ให้กับองค์กรตำรวจเองด้วย สำนักงานตำรวจแห่งชาติควรวางรากฐานให้เจ้าหน้าที่ทุกระดับมีความรู้เกี่ยวกับภัยยุคใหม่ นอกจากนี้ การสร้าง “เครือข่ายตำรวจไซเบอร์ภาคประชาชน” หรือ Cyber Police – Community Partnership จะช่วยเปิดพื้นที่ให้ประชาชนมีส่วนร่วมในการแจ้งเบาะแสและเรียนรู้ไปพร้อมกับตำรวจ

4.3 การผลักดันนโยบายและกฎหมายที่เท่าทันเทคโนโลยี

ภัยจาก AI เกิดขึ้นเร็วเสียยิ่งกว่ากระบวนการตรากฎหมาย กรอบนิติบัญญัติจึงจำเป็นต้องปรับให้สอดรับกับบริบทใหม่ เช่น การร่างพระราชบัญญัติควบคุม Deepfake สำนักงานตำรวจแห่งชาติควรทำหน้าที่ “ผลักดันนโยบายเชิงรุก” โดยเสนอแนะแก่ฝ่ายนิติบัญญัติอย่างต่อเนื่อง เพื่อให้กฎหมายไทยสามารถยืนหยัดได้ในสนามรบไซเบอร์

4.4 การสร้างความร่วมมือระหว่างประเทศ

ภัยไซเบอร์ไม่ได้หยุดอยู่ที่พรมแดน ดังนั้น การมีตัวแทนจากสำนักงานตำรวจแห่งชาติเข้าร่วมในเวทีสากลจะช่วยให้ประเทศไทยสามารถแลกเปลี่ยนข้อมูลทางเทคโนโลยี แบ่งปันแนวปฏิบัติที่ดีที่สุด และเสริมเขี้ยวเล็บในการติดตามจับกุมผู้กระทำความผิดข้ามชาติ

5.คำเตือนจากสนามรบดิจิทัล เพราะภัย AI ไม่ใช่เรื่องของอนาคตที่ไกลตัวอีกต่อไป

ในโลกที่ข้อมูลเคลื่อนที่เร็วกว่าแสงและเทคโนโลยีพัฒนาเร็วกว่ากฎหมาย ปัญญาประดิษฐ์ (AI) ได้เปลี่ยนสถานะจาก “เครื่องมือ” สู่ “อาวุธ” อย่างแนบเนียนด้วยความสามารถในการปลอมเสียง ปลอมภาพ และปลอมตัวตน จนยากที่มนุษย์จะรับรู้ทัน ความท้าทายของสังคมไทยจึงไม่ใช่เพียงการสร้างระบบป้องกันที่แข็งแกร่ง แต่คือการสร้าง คนที่รู้เท่าทันภัยดิจิทัล ที่ประชาชนทั่วไป จำเป็นต้องมี “ภูมิคุ้มกันดิจิทัล” รู้จักตั้งค่า MFA หลีกเลี่ยงการเปิดเผยข้อมูลบนแพลตฟอร์มที่ไม่น่าเชื่อถือ และตั้งข้อสงสัยกับสิ่งที่ดูสมจริงเกินไป เช่น วิดีโอหรือข้อความจากบุคคลใกล้ชิดที่ไม่แน่ใจแหล่งที่มา ในขณะที่ นักธุรกิจและผู้บริหารองค์กร ต้องระมัดระวังภัยแฝงในรูปแบบใหม่ เช่น CEO Fraud และ Business Email Compromise ที่ใช้ AI สร้างคำสั่งปลอมมาหลอกให้โอนเงิน พร้อมกับลงทุนในระบบ Defensive AI และนำนโยบาย “Zero Trust” มาใช้เพื่อสร้างกระบวนการตรวจสอบที่เข้มงวด

เจ้าหน้าที่รัฐและหน่วยงานความมั่นคง ควรเร่งปรับระบบ IT ให้รองรับภัย AI สร้างวัฒนธรรมความตระหนักรู้ในองค์กร และร่วมมือกับสำนักงานตำรวจแห่งชาติในการเฝ้าระวัง วิเคราะห์ และตอบโต้ภัยคุกคาม พร้อมพัฒนาทักษะด้าน Cyber Threat Intelligence และ AI Threat Hunting อย่างต่อเนื่อง ฝากไว้พิจารณา เพราะโลกไม่ย้อนกลับ ระบบความมั่นคงปลอดภัยต้องก้าวไปข้างหน้า ภัยจาก AI ไม่ใช่เรื่องไกลตัว และไม่ใช่เรื่องของวันพรุ่งนี้ แต่มันคือภัยของ “วันนี้” ที่อาจจะมาถึงก่อนที่เราจะรู้ตัว สิ่งที่สังคมไทยต้องทำ จึงไม่ใช่เพียงการสร้างระบบป้องกันที่แข็งแรง แต่คือการสร้าง “คนที่รู้เท่าทันภัยดิจิทัล”ดังนั้น ความรู้คือวัคซีน และความร่วมมือคือเกราะเหล็ก ที่จะทำให้ประเทศไทยสามารถยืนหยัดอยู่ท่ามกลางกระแสของโลกดิจิทัลที่เปลี่ยนแปลงอย่างไม่หยุดยั้ง พอเขียนถึงตรงนี้ทำให้คิดถึง พล.ต.อ.ดำรงศักดิ์ กิตติประภัสร์ อดีต ผบ.ตร. ผู้ขับเคลื่อน “ไซเบอร์วัคซีน” ในกำลังพลตำรวจและประชาชนทั่วประเทศ “เพราะความมั่นคงของชาติในวันนี้ ไม่ได้อยู่ในเขตแดนทางภูมิศาสตร์เท่านั้น แต่อยู่ในความปลอดภัยของข้อมูล ความเข้าใจของประชาชน และความเร็วของการปรับตัวของสถาบันรัฐ”

About Author