รายงาน OpenAI: การโจมตีทางไซเบอร์โดยแฮกเกอร์ชาวจีนและอิหร่านใช้ ChatGPT สำหรับมัลแวร์และฟิชชิ่ง
แฮกเกอร์ชาวจีนและอิหร่านใช้เครื่องมือ ChatGPT และ LLM เพื่อพัฒนามัลแวร์และการโจมตีแบบฟิชชิ่ง: รายงาน OpenAI บันทึกการโจมตีทางไซเบอร์ที่สร้างโดย ChatGPT มากกว่า 20 รายการ
หากมีสัญญาณหนึ่งที่บ่งบอกว่า AI มีปัญหามากกว่าความคุ้มค่า นั่นก็คือ OpenAI ยืนยันว่ามีการโจมตีทางไซเบอร์เกิดขึ้นมากกว่า 20 ครั้ง ทั้งหมดนี้สร้างขึ้นผ่าน ChatGPT รายงานยืนยันว่า generative AI ถูกใช้เพื่อโจมตีแบบฟิชชิ่ง แก้ไขจุดบกพร่องและพัฒนามัลแวร์ และดำเนินกิจกรรมที่เป็นอันตรายอื่นๆ
รายงานยืนยันการโจมตีทางไซเบอร์สองครั้งโดยใช้ ChatGPT generative AI ครั้งแรกรายงานโดย Cisco Talos ในเดือนพฤศจิกายน 2024 ซึ่งถูกใช้โดยผู้แสดงภัยคุกคามชาวจีนที่กำหนดเป้าหมายไปที่รัฐบาลในเอเชีย การโจมตีครั้งนี้ใช้วิธีการของ ฟิชชิ่ง เรียกว่า 'SweetSpecter' ซึ่งรวมถึงไฟล์ ZIP ที่มีไฟล์ที่เป็นอันตรายซึ่งหากดาวน์โหลดและเปิดขึ้นมา จะทำให้เกิดการติดไวรัสในระบบของผู้ใช้ OpenAI ค้นพบว่า SweetSpecter ถูกสร้างขึ้นโดยใช้หลายบัญชีที่ใช้ ChatGPT เพื่อพัฒนาสคริปต์และค้นหาช่องโหว่โดยใช้เครื่องมือ LLM
การโจมตีทางไซเบอร์ที่ปรับปรุงด้วย AI ครั้งที่สองมาจากกลุ่มที่มีฐานอยู่ในอิหร่านชื่อ 'CyberAv3ngers' ซึ่งใช้ ChatGPT เพื่อใช้ประโยชน์จากช่องโหว่และขโมยรหัสผ่านของผู้ใช้พีซีตาม ระบบปฏิบัติการ macOS- การโจมตีครั้งที่สามซึ่งนำโดยกลุ่มที่อยู่ในอิหร่านอีกกลุ่มหนึ่งชื่อ Storm-0817 ใช้ ChatGPT เพื่อพัฒนามัลแวร์ แอนดรอยด์- มัลแวร์ขโมยรายชื่อผู้ติดต่อ ดึงบันทึกการโทรและประวัติโทรศัพท์ เบราว์เซอร์ได้รับตำแหน่งที่แม่นยำของอุปกรณ์และเข้าถึงไฟล์บนอุปกรณ์ที่ติดไวรัส
การโจมตีทั้งหมดนี้ใช้วิธีการที่มีอยู่ในการพัฒนามัลแวร์ และตามรายงาน ยังไม่มีข้อบ่งชี้ว่า ChatGPT ได้สร้างมัลแวร์ใหม่อย่างมีนัยสำคัญ อย่างไรก็ตาม มันแสดงให้เห็นว่าการที่ผู้คุกคามสามารถหลอกผู้ใช้ได้ง่ายเพียงใด บริการ ของ generative AI เพื่อสร้างเครื่องมือโจมตีที่เป็นอันตราย มันเปิดเวิร์มกระป๋องใหม่ แสดงให้เห็นว่าเป็นเรื่องง่ายสำหรับทุกคนที่มีความรู้ที่จำเป็นในการเปิดใช้งาน ChatGPT เพื่อทำบางสิ่งด้วยเจตนาไม่ดี แม้ว่าจะมีนักวิจัยด้านความปลอดภัยที่ค้นพบช่องโหว่ที่อาจเกิดขึ้นเพื่อรายงานและแก้ไข การโจมตีเช่นนี้จะสร้างความจำเป็นในการหารือเกี่ยวกับข้อจำกัดในการใช้งานของ generative AI
นับจากนี้ไป OpenAI มุ่งมั่นอย่างแน่วแน่ที่จะพัฒนาปัญญาประดิษฐ์อย่างต่อเนื่อง โดยมีเป้าหมายเพื่อป้องกันไม่ให้มีการใช้วิธีการที่อาจส่งผลต่อความปลอดภัยและความสมบูรณ์ของระบบ การตัดสินใจครั้งนี้เน้นย้ำถึงความสำคัญของการรักษาแนวทางเชิงรุกในการปกป้องของคุณ เทคโนโลยี ขั้นสูง. ในระหว่างนี้ OpenAI ไม่เพียงแต่มุ่งเน้นไปที่การพัฒนา AI เท่านั้น แต่ยังจะร่วมมืออย่างใกล้ชิดกับทีมรักษาความปลอดภัยและความปลอดภัยภายในเพื่อให้แน่ใจว่ามีการนำมาตรการที่มีประสิทธิภาพและแข็งแกร่งมาใช้เพื่อปกป้องแพลตฟอร์มของตน
บริษัทได้แสดงให้เห็นชัดเจนว่าจะไม่เพียงแต่มุ่งเน้นไปที่สภาพแวดล้อมของบริษัทเท่านั้น แต่ยังจะแบ่งปันการค้นพบและความก้าวหน้าของบริษัทกับผู้เล่นคนอื่นๆ ในอุตสาหกรรมและชุมชนการวิจัยต่อไป แนวทางการทำงานร่วมกันนี้พยายามป้องกันไม่ให้สถานการณ์ที่คล้ายกันเกิดขึ้นในอนาคต โดยส่งเสริมระบบนิเวศที่ปลอดภัยและเชื่อถือได้มากขึ้นสำหรับผู้ใช้เทคโนโลยีปัญญาประดิษฐ์ทุกคน
แม้ว่าความคิดริเริ่มนี้จะนำโดย OpenAI แต่ผู้นำอุตสาหกรรมรายอื่นๆ ที่มีแพลตฟอร์ม AI เจนเนอเรชั่นของตนเองก็จำเป็นอย่างยิ่งที่จะต้องนำมาตรการป้องกันที่แข็งแกร่งมาใช้เพื่อป้องกันการโจมตีที่อาจส่งผลต่อระบบของพวกเขา
การป้องกันภัยคุกคามประเภทนี้ถือเป็นความท้าทายอย่างต่อเนื่อง และจำเป็นอย่างยิ่งที่ทุกบริษัทจะต้องมีส่วนร่วมในการพัฒนา ปัญญาประดิษฐ์ ใช้มาตรการป้องกันเชิงรุก
มาตรการเหล่านี้ไม่เพียงแต่มุ่งเน้นไปที่การแก้ปัญหาที่เกิดขึ้นเท่านั้น แต่ยังมุ่งเน้นไปที่การคาดการณ์เพื่อป้องกันไม่ให้เกิดขึ้นตั้งแต่แรกอีกด้วย ด้วยวิธีนี้ บริษัทต่างๆ จะสามารถรับประกันประสบการณ์ที่ปลอดภัยและเชื่อถือได้สำหรับผู้ใช้ทุกคน เสริมสร้างความไว้วางใจใน เทคโนโลยี ปัญญาประดิษฐ์และศักยภาพในการเปลี่ยนแปลงในสังคม