Sora 2 กับวิกฤต Deepfake: เมื่อวิดีโอ ‘เจ้านายปลอม’ อาจทำให้องค์กรคุณล่มสลาย

cybersecurity-news

Sora 2 กับวิกฤต Deepfake: เมื่อวิดีโอ ‘เจ้านายปลอม’ อาจทำให้องค์กรคุณล่มสลาย

Deepfake 2.0: ยกระดับการหลอกลวงด้วยวิดีโอที่แยกไม่ออก

การเปิดตัว Sora 2 ของ OpenAI ได้สร้างมาตรฐานใหม่ให้กับวิดีโอที่สร้างโดย AI ด้วยความสมจริงที่เหนือกว่ารุ่นก่อนหน้า ทำให้เกิดความกังวลอย่างยิ่งในหมู่นักวิชาการและผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์

เครื่องมือนี้ทำให้ใครก็ตามที่มีเจตนาร้ายสามารถสร้าง “Deepfake” ได้อย่างง่ายดายและรวดเร็ว โดยเฉพาะวิดีโอที่เหมือนจริงของบุคคลสำคัญ เช่น ผู้บริหารระดับสูง (CEO) หรือหัวหน้าแผนก ซึ่งถือเป็นจุดเริ่มต้นของภัยคุกคามด้าน Cybersecurity ครั้งใหญ่

ภัยคุกคามทางไซเบอร์ที่มาพร้อมกับ Sora 2

วิดีโอ Deepfake ที่มาพร้อมกับเสียงและภาพที่สมจริงจนแยกไม่ออก คืออาวุธใหม่ในกลุ่ม Social Engineering ซึ่งมีความอันตรายและสามารถสร้างความเสียหายต่อองค์กรได้ในวงกว้าง:

  • การปลอมแปลงเป็นเจ้านาย (CEO Impersonation): ผู้โจมตีสามารถใช้วิดีโอปลอมเป็นผู้บริหารระดับสูงโทรศัพท์มา หรือส่งวิดีโอข้อความฉุกเฉินเพื่อสั่งการเร่งด่วน เช่น “ฉันติดประชุมด่วนมาก รบกวนรีเซ็ตรหัสผ่านบัญชีหลักของฉันให้ที” หรือ “โอนเงินฉุกเฉินไปที่บัญชีนี้ทันที”
  • การทำ Identity Theft และ Fraud: ด้วยความสามารถของ Sora 2 ที่สร้างภาพยนตร์คุณภาพสูงได้ ทำให้วิดีโอที่ถูกสร้างขึ้นมีน้ำหนักน่าเชื่อถือมากพอที่จะใช้ในการฉ้อโกงทางการเงิน (Deepfake Fraud) ที่มีรายงานว่าเพิ่มขึ้นอย่างน่าตกใจ โดยมีค่าความเสียหายเฉลี่ยสูงถึง $500,000 ต่อครั้ง
  • การทำลายความน่าเชื่อถือ (Information Integrity): การมีวิดีโอปลอมที่มีคุณภาพสูงหลุดออกมา ทำให้เกิดภาวะ “Trust No Voice, Doubt Every Face” (ไม่เชื่อเสียงที่ได้ยิน, สงสัยใบหน้าที่เห็น) ส่งผลกระทบต่อกระบวนการยืนยันตัวตนทั้งหมดที่ต้องอาศัยภาพและเสียง

กลยุทธ์ป้องกัน Deepfake CEO: จาก Zero Trust สู่รหัสลับส่วนตัว

เมื่อเทคโนโลยีการหลอกลวงก้าวหน้าไปอย่างรวดเร็ว การพึ่งพาระบบตรวจจับทางเทคนิคเพียงอย่างเดียวอาจไม่พอ องค์กรต้องหันมาปรับใช้มาตรการป้องกันที่เน้นไปที่มนุษย์ (Human-Centered Safeguards) และกระบวนการทำงาน

มาตรการป้องกันที่ต้องเริ่มใช้ทันที:

  • หลักการ Zero Trust: ตั้งสมมติฐานว่าการสื่อสารทุกรูปแบบ ทั้งวิดีโอและเสียง อาจไม่เป็นความจริงเสมอไป โดยเฉพาะคำสั่งที่มีความอ่อนไหวสูง เช่น การโอนเงิน หรือการเข้าถึงข้อมูลสำคัญ
  • การตรวจสอบแบบ Out-of-Band (OOB): หากได้รับคำสั่งที่ผิดปกติจาก “เจ้านาย” ผ่านวิดีโอคอล ควรยืนยันตัวตนกลับไปทันทีผ่านช่องทางอื่นที่ไม่ใช่ช่องทางเดิม (เช่น โทรศัพท์กลับไปที่เบอร์มือถือที่รู้, หรือส่งข้อความผ่านแอปแชทที่เข้ารหัสไว้)
  • รหัสลับส่วนตัว (Secret Verification Phrase): กำหนดรหัสลับ หรือวลีส่วนตัวที่ตกลงกันไว้ล่วงหน้ากับทีมงานหรือผู้บริหาร เพื่อใช้เป็นคำถามยืนยันตัวตนในกรณีที่มีการขอคำสั่งเร่งด่วนหรือน่าสงสัย

สรุปและข้อคิดเห็น: การแข่งขันระหว่างความจริงกับ AI

Sora 2 ได้พิสูจน์แล้วว่าอนาคตของวิดีโอ Deepfake มาถึงเร็วกว่าที่คิด ภัยคุกคามไม่ได้จำกัดอยู่แค่การเมืองหรือข่าวปลอมเท่านั้น แต่ได้ขยายมาสู่การโจมตีทางไซเบอร์ในรูปแบบ Social Engineering ที่เจาะจงเป้าหมายในระดับองค์กร

ความปลอดภัยในยุคนี้ไม่ได้ขึ้นอยู่กับ Firewall ที่แข็งแกร่งเพียงอย่างเดียว แต่ขึ้นอยู่กับ “สติ” และ “วินัยในการตรวจสอบ” ของพนักงานทุกคน จงฝึกฝนพนักงานให้สงสัยในสิ่งที่เห็นและได้ยิน และจงสร้างวัฒนธรรมองค์กรที่กล้าที่จะปฏิเสธคำสั่งที่น่าสงสัย จนกว่าจะมีการยืนยันตัวตนที่แท้จริง

อ้างอิงจาก : https://www.bankinfosecurity.com/blogs/deepfake-fraud-trust-no-voice-doubt-every-face-p-3954