هجمات إلكترونية شنها قراصنة صينيون وإيرانيون باستخدام ChatGPT

هجمات إلكترونية شنها قراصنة صينيون وإيرانيون باستخدام ChatGPT

تقرير OpenAI: قراصنة صينيون وإيرانيون يستخدمون ChatGPT للبرمجيات الخبيثة والتصيد الاحتيالي في الهجمات الإلكترونية

يستخدم قراصنة صينيون وإيرانيون أدوات ChatGPT وLLM لتطوير هجمات البرامج الضارة والتصيد الاحتيالي: يوثق تقرير OpenAI أكثر من 20 هجومًا إلكترونيًا مدعومًا بـ ChatGPT.

إذا كانت هناك علامة واحدة على أن الذكاء الاصطناعي يسبب مشاكل أكثر مما يستحق، فهي أوبن أيه آي يؤكد أن أكثر من عشرين هجومًا إلكترونيًا قد حدث، وكلها تم إنشاؤها من خلال ChatGPT. وأكد التقرير أن الذكاء الاصطناعي التوليدي تم استخدامه لتنفيذ هجمات التصيد الاحتيالي واستكشاف أخطاء البرامج الضارة وتطويرها، وإجراء أنشطة ضارة أخرى.

يؤكد التقرير وقوع هجومين إلكترونيين باستخدام الذكاء الاصطناعي ChatGPT. وأفادت شركة سيسكو تالوس عن أول حالة في نوفمبر/تشرين الثاني 2024، والتي استخدمها ممثلو التهديدات الصينيون الذين استهدفوا الحكومات الآسيوية. استخدم هذا الهجوم أسلوب التصيد الاحتيالي يُطلق عليه اسم "SweetSpecter"، والذي يتضمن ملف ZIP يحتوي على ملف ضار، والذي إذا تم تنزيله وفتحه، من شأنه أن ينشئ سلسلة من العدوى على نظام المستخدم. اكتشفت OpenAI أن SweetSpecter تم إنشاؤه باستخدام حسابات متعددة تستخدم ChatGPT لتطوير البرامج النصية واكتشاف الثغرات الأمنية باستخدام أداة LLM.

وجاء الهجوم الإلكتروني الثاني المعزز بالذكاء الاصطناعي من مجموعة مقرها إيران تسمى "CyberAv3ngers" والتي استخدمت ChatGPT لاستغلال الثغرات الأمنية وسرقة كلمات المرور من مستخدمي الكمبيوتر الشخصي بناءً على ماك أو إس. استخدم الهجوم الثالث، الذي قادته مجموعة أخرى مقرها إيران تسمى Storm-0817، برنامج ChatGPT لتطوير برامج ضارة لـ أندرويد. سرق البرنامج الخبيث قوائم جهات الاتصال، واستخرج سجلات المكالمات وسجلات المكالمات. متصفححصل على الموقع الدقيق للجهاز وقام بالوصول إلى الملفات الموجودة على الأجهزة المصابة.

استخدمت كل هذه الهجمات أساليب موجودة لتطوير البرامج الضارة وبحسب التقرير، لم تكن هناك أي مؤشرات على أن ChatGPT قد أنشأ برامج ضارة جديدة إلى حد كبير. على أية حال، فهو يوضح مدى سهولة قيام الجهات الفاعلة في مجال التهديد بخداع المستخدمين. خدمات الذكاء الاصطناعي التوليدي لإنشاء أدوات هجوم ضارة. يفتح هذا الباب أمام مشاكل جديدة، مما يثبت أنه من الأسهل لأي شخص لديه المعرفة اللازمة لتنشيط ChatGPT للقيام بشيء ضار. في حين أن هناك باحثين من حماية إن الهجمات مثل هذه من شأنها أن تخلق الحاجة لمناقشة القيود المفروضة على تنفيذ الذكاء الاصطناعي التوليدي، والتي من شأنها أن تؤدي إلى اكتشاف مثل هذه الثغرات المحتملة والإبلاغ عنها ومعالجتها.

من الآن فصاعدًا، تلتزم OpenAI التزامًا راسخًا بمواصلة تحسينها الذكاء الاصطناعي بهدف منع استخدام الأساليب التي قد تعرض أمن وسلامة أنظمتها للخطر. يؤكد هذا القرار على أهمية الحفاظ على نهج استباقي لحماية حقوقك التقنيات متقدم. وفي الوقت نفسه، لن تركز OpenAI على تطوير الذكاء الاصطناعي فحسب، بل ستعمل أيضًا بشكل وثيق مع فرق السلامة والأمن الداخلية لضمان وجود تدابير فعالة وقوية لحماية منصاتها.

وأوضحت الشركة أنها لن تركز فقط على بيئتها الخاصة، بل ستواصل أيضًا مشاركة اكتشافاتها وتقدمها مع الجهات الفاعلة الأخرى في الصناعة ومجتمع البحث. ويسعى هذا النهج التعاوني إلى منع حدوث مواقف مماثلة في المستقبل، وتعزيز نظام بيئي أكثر أمانًا وموثوقية لجميع مستخدمي تكنولوجيا المعلومات. الذكاء الاصطناعي.

وفي حين تقود شركة OpenAI هذه المبادرة، فمن الأهمية بمكان أن يقوم قادة الصناعة الآخرون الذين لديهم منصات الذكاء الاصطناعي التوليدية الخاصة بهم أيضًا بتبني تدابير وقائية قوية لمنع الهجمات التي قد تعرض أنظمتهم للخطر.

إن منع هذه الأنواع من التهديدات يشكل تحديًا مستمرًا، ومن الضروري أن تتعاون جميع الشركات المشاركة في تطوير الذكاء الاصطناعي تنفيذ الضمانات الاستباقية.

ولا ينبغي لهذه التدابير أن تركز فقط على حل المشاكل بمجرد حدوثها، بل أيضاً على توقع حدوثها لمنع ظهورها في المقام الأول. وبهذه الطريقة، ستتمكن الشركات من ضمان تجربة آمنة وموثوقة لجميع مستخدميها، مما يعزز الثقة في التقنيات الذكاء الاصطناعي وإمكاناته التحويلية في المجتمع.

5 4 الأصوات
تقييم المقال
الاشتراك
إشعار
ضيف

0 تعليقات
أقدم
الجديد أكثر الأكثر تأييدا
التعليقات على الإنترنت
انظر جميع التعليقات