รายงาน OpenAI: การโจมตีทางไซเบอร์โดยแฮกเกอร์ชาวจีนและอิหร่านใช้ ChatGPT สำหรับมัลแวร์และฟิชชิ่ง
แฮกเกอร์ชาวจีนและอิหร่านใช้เครื่องมือ ChatGPT และ LLM เพื่อพัฒนามัลแวร์และการโจมตีแบบฟิชชิ่ง: รายงาน OpenAI บันทึกการโจมตีทางไซเบอร์ที่สร้างโดย ChatGPT มากกว่า 20 รายการ
หากมีสัญญาณหนึ่งที่บ่งบอกว่า AI มีปัญหามากกว่าความคุ้มค่า นั่นก็คือ OpenAI ยืนยันว่ามีการโจมตีทางไซเบอร์เกิดขึ้นมากกว่า 20 ครั้ง ทั้งหมดนี้สร้างขึ้นผ่าน ChatGPT รายงานยืนยันว่า generative AI ถูกใช้เพื่อโจมตีแบบฟิชชิ่ง แก้ไขจุดบกพร่องและพัฒนามัลแวร์ และดำเนินกิจกรรมที่เป็นอันตรายอื่นๆ
รายงานยืนยันการโจมตีทางไซเบอร์สองครั้งโดยใช้ ChatGPT generative AI ครั้งแรกรายงานโดย Cisco Talos ในเดือนพฤศจิกายน 2024 ซึ่งถูกใช้โดยผู้แสดงภัยคุกคามชาวจีนที่กำหนดเป้าหมายไปที่รัฐบาลในเอเชีย การโจมตีนี้ใช้วิธีการฟิชชิ่งที่เรียกว่า 'SweetSpecter' ซึ่งรวมถึงไฟล์ ZIP ที่มีไฟล์ที่เป็นอันตราย ซึ่งหากดาวน์โหลดและเปิดขึ้นมา จะทำให้เกิดการติดไวรัสในระบบของผู้ใช้ OpenAI ค้นพบว่า SweetSpecter ถูกสร้างขึ้นโดยใช้หลายบัญชีที่ใช้ ChatGPT เพื่อพัฒนาสคริปต์และค้นหาช่องโหว่โดยใช้เครื่องมือ LLM
การโจมตีทางไซเบอร์ที่ปรับปรุงด้วย AI ครั้งที่สองมาจากกลุ่มในอิหร่านชื่อ 'CyberAv3ngers' ซึ่งใช้ ChatGPT เพื่อใช้ประโยชน์จากช่องโหว่และขโมยรหัสผ่านจากผู้ใช้พีซีที่ใช้ macOS การโจมตีครั้งที่สามซึ่งนำโดยกลุ่มที่อยู่ในอิหร่านอีกกลุ่มหนึ่งชื่อ Storm-0817 ใช้ ChatGPT เพื่อพัฒนามัลแวร์ Android มัลแวร์ขโมยรายชื่อผู้ติดต่อ ดึงบันทึกการโทรและประวัติเบราว์เซอร์ รับตำแหน่งอุปกรณ์ที่แม่นยำ และเข้าถึงไฟล์บนอุปกรณ์ที่ติดไวรัส
การโจมตีทั้งหมดนี้ใช้วิธีการที่มีอยู่ในการพัฒนามัลแวร์ และตามรายงาน ยังไม่มีข้อบ่งชี้ว่า ChatGPT ได้สร้างมัลแวร์ใหม่อย่างมีนัยสำคัญ ถึงกระนั้น ก็แสดงให้เห็นว่ามันง่ายเพียงใดสำหรับผู้คุกคามที่จะหลอกบริการ AI ทั่วไปให้สร้างเครื่องมือโจมตีที่เป็นอันตราย มันเปิดเวิร์มกระป๋องใหม่ แสดงให้เห็นว่าทุกคนที่มีความรู้ที่จำเป็นสามารถเปิดใช้งาน ChatGPT เพื่อทำบางสิ่งด้วยเจตนาไม่ดีได้ง่ายขึ้น แม้ว่าจะมีนักวิจัยด้านความปลอดภัยที่ค้นพบช่องโหว่ที่อาจเกิดขึ้นเพื่อรายงานและแก้ไข การโจมตีเช่นนี้จะสร้างความจำเป็นในการหารือเกี่ยวกับข้อจำกัดในการใช้งานของ generative AI
นับจากนี้ไป OpenAI มุ่งมั่นอย่างแน่วแน่ที่จะพัฒนาปัญญาประดิษฐ์อย่างต่อเนื่อง โดยมีเป้าหมายเพื่อป้องกันไม่ให้มีการใช้วิธีการที่อาจส่งผลต่อความปลอดภัยและความสมบูรณ์ของระบบ การตัดสินใจครั้งนี้เน้นย้ำถึงความสำคัญของการรักษาแนวทางเชิงรุกในการปกป้องเทคโนโลยีขั้นสูงของคุณ ในระหว่างนี้ OpenAI ไม่เพียงแต่มุ่งเน้นไปที่การพัฒนา AI เท่านั้น แต่ยังจะร่วมมืออย่างใกล้ชิดกับทีมรักษาความปลอดภัยและความปลอดภัยภายในเพื่อให้แน่ใจว่ามีการนำมาตรการที่มีประสิทธิภาพและแข็งแกร่งมาใช้เพื่อปกป้องแพลตฟอร์มของตน
บริษัทได้แสดงให้เห็นชัดเจนว่าจะไม่เพียงแต่มุ่งเน้นไปที่สภาพแวดล้อมของบริษัทเท่านั้น แต่ยังจะแบ่งปันการค้นพบและความก้าวหน้าของบริษัทกับผู้เล่นคนอื่นๆ ในอุตสาหกรรมและชุมชนการวิจัยต่อไป แนวทางการทำงานร่วมกันนี้พยายามป้องกันไม่ให้สถานการณ์ที่คล้ายกันเกิดขึ้นในอนาคต โดยส่งเสริมระบบนิเวศที่ปลอดภัยและเชื่อถือได้มากขึ้นสำหรับผู้ใช้เทคโนโลยีปัญญาประดิษฐ์ทุกคน
แม้ว่าความคิดริเริ่มนี้จะนำโดย OpenAI แต่ผู้นำอุตสาหกรรมรายอื่นๆ ที่มีแพลตฟอร์ม AI เจนเนอเรชั่นของตนเองก็จำเป็นอย่างยิ่งที่จะต้องนำมาตรการป้องกันที่แข็งแกร่งมาใช้เพื่อป้องกันการโจมตีที่อาจส่งผลต่อระบบของพวกเขา
การป้องกันภัยคุกคามประเภทนี้ถือเป็นความท้าทายอย่างต่อเนื่อง และจำเป็นอย่างยิ่งที่ทุกบริษัทที่เกี่ยวข้องกับการพัฒนาปัญญาประดิษฐ์จะต้องใช้มาตรการป้องกันเชิงรุก
มาตรการเหล่านี้ไม่เพียงแต่มุ่งเน้นไปที่การแก้ปัญหาที่เกิดขึ้นเท่านั้น แต่ยังมุ่งเน้นไปที่การคาดการณ์เพื่อป้องกันไม่ให้เกิดขึ้นตั้งแต่แรกอีกด้วย ด้วยวิธีนี้ บริษัทต่างๆ จะสามารถรับประกันประสบการณ์ที่ปลอดภัยและเชื่อถือได้สำหรับผู้ใช้ทุกคน เสริมสร้างความไว้วางใจในเทคโนโลยีปัญญาประดิษฐ์ และศักยภาพในการเปลี่ยนแปลงในสังคม