شركة أمن البلوكشين تحذر من مخاطر تسمم الكود بالذكاء الاصطناعي بعد توصية ChatGPT بواجهة API احتيالية – اكتشف المزيد الآن!
حذر يو شيان، مؤسس شركة الأمن البلوكشين Slowmist، من تهديد متصاعد يُعرف باسم تسميم الكود بالذكاء الاصطناعي. يتضمن هذا الهجوم إدخال كود ضار إلى بيانات التدريب لنماذج الذكاء الاصطناعي، مما يمكن أن يشكل مخاطر للمستخدمين الذين يعتمدون على هذه الأدوات للمهام التقنية.
الحادثة
نال الموضوع اهتمامًا كبيرًا بعد حادثة مقلقة تتعلق بتطبيق ChatGPT لشركة OpenAI. في 21 نوفمبر، أفاد تاجر العملات الرقمية يُدعى “r_cky0” بخسارة 2500 دولار في أصول رقمية بعد طلبه مساعدة ChatGPT لإنشاء روبوت لمشروع توليد العملات ميم على شبكة سولانا Pump.fun. لكن الاقتراح كان استخدام موقع API سولانا احتيالي، مما أدى إلى سرقة المفاتيح الخاصة بالمستخدم. لاحظ الضحية أنه في غضون 30 دقيقة من استخدام API الضارة، تم سحب جميع الأصول إلى محفظة مرتبطة بالاحتيال.
[ملاحظة المحرر: يبدو أن ChatGPT أوصى بـ API بعد إجراء بحث باستخدام النظام الجديد SearchGPT حيث يمكن رؤية قسم “المصادر” في لقطة الشاشة. لذا، لا يبدو أنه حالة تسميم الكود بالذكاء الاصطناعي بل هو فشل للذكاء الاصطناعي في التعرف على الروابط الاحتيالية في نتائج البحث.]
أوضحت التحقيقات الإضافية أن هذا العنوان يستقبل بانتظام الرموز المسروقة، مما يعزز الشكوك بأنه ينتمي إلى محتال. لاحظ مؤسس Slowmist أن اسم نطاق API الاحتيالي تم تسجيله قبل شهرين، مما يشير إلى أن الهجوم كان مخططًا له مسبقاً. وأضاف شيان أن الموقع يفتقر إلى محتوى مفصل ، حيث يحتوي فقط على وثائق ومستودعات كود.
في حين يبدو أن التسميم مقصود، لا يوجد دليل يشير إلى أن OpenAI قامت عمدا بدمج البيانات الضارة في تدريب ChatGPT، والنتيجة جاءت على الأرجح من SearchGPT.
التداعيات
أوضحت شركة Scam Sniffer للأمن في البلوكشين أن هذه الحادثة توضح كيف يقوم المحتالون بتلويث بيانات تدريب الذكاء الاصطناعي بكود ضار للعملات الرقمية. وأضافت الشركة أن مستخدم GitHub باسم “solanaapisdev” قام بإنشاء العديد من المستودعات للتلاعب بنماذج الذكاء الاصطناعي لإنتاج مخرجات احتيالية في الأشهر الأخيرة.
تواجه أدوات الذكاء الاصطناعي مثل ChatGPT، التي يستخدمها الآن مئات الملايين، تحديات متزايدة مع اكتشاف المهاجمين لطرق جديدة لاستغلالها. حذر شيان مستخدمي العملات الرقمية من المخاطر المرتبطة بالنماذج اللغوية الكبيرة (LLMs) مثل GPT. وأكد أن ما كان في الماضي مخاطرة نظرية، أصبح الآن تهديدًا حقيقيًا. لذا، من دون دفاعات أقوى، يمكن أن تتسبب حوادث مثل هذه في تقويض الثقة في الأدوات المستندة إلى الذكاء الاصطناعي وتعريض المستخدمين لخسائر مالية إضافية.
الأسئلة المتكررة
ما هو التهديد الرئيسي الذي ناقشه يو شيان؟
يو شيان ناقش تهديد تسميم الكود بالذكاء الاصطناعي، حيث يتم إدخال كود ضار إلى بيانات تدريب نماذج الذكاء الاصطناعي، مما يشكل خطرًا على المستخدمين الذين يعتمدون على هذه الأدوات لمهام تقنية.
كيف أثرت الحادثة على مستخدمي العملات الرقمية؟
أدت الحادثة إلى سرقة أصول رقمية من أحد المستخدمين بعد توصية ChatGPT باستخدام موقع API احتيالي مما تسبب في فقدانه مفاتيحه الخاصة وأصوله.
ما هو التحذير الذي وجهه يو شيان إلى مستخدمي العملات الرقمية؟
حذر شيان من المخاطر المرتبطة بالنماذج اللغوية الكبيرة مثل GPT، وأكد أن التسميم بالذكاء الاصطناعي يمثل تهديدًا حقيقيًا يجب التصدي له.