امن وحماية المعلومات

أداة من OpenAI تبتكر بوت صوتي يمكنه استنزاف محافظ العملات المشفرة – اكتشف المزيد!

أفاد باحثون في الولايات المتحدة أنهم استخدموا واجهة برمجة التطبيقات الصوتية الخاصة بـ OpenAI لإنشاء وكلاء احتيال هاتفي يعتمدون على الذكاء الاصطناعي يمكن استخدامها لاستنزاف محافظ العملات الرقمية وحسابات البنوك الخاصة بالضحايا.

تحقيقات بحثة معمقة في الاحتيال الهاتفي

وفقًا لتقرير من The Register، استخدم علماء الحاسوب في جامعة إلينوي في أوربانا-شامبين نموذج GPT-4o من OpenAI جنبًا إلى جنب مع عدد من الأدوات المتاحة مجانًا لبناء الوكيل الذي يقولون إنه “يمكنه تنفيذ الإجراءات الضرورية بشكل ذاتي لعمليات الاحتيال الهاتفية المتنوعة”.

التوجيهات من البروفيسور دانييل كانغ

أشار الأستاذ المساعد في UIUC دانييل كانغ إلى أن الاحتيالات الهاتفية التي تتضمن قيام الجُناة بانتحال شخصية منظمات تجارية أو حكومية تستهدف حوالي 18 مليون أمريكي سنويًا وتتكلف ما يقرب من 40 مليار دولار.

أداة من OpenAI تبتكر بوت صوتي يمكنه استنزاف محافظ العملات المشفرة - اكتشف المزيد!

يسمح GPT-4o للمستخدمين بإرسال نصوص أو صوت إليه والحصول على استجابة مماثلة. بحسب كانغ، فإن تكلفة العملية ليست مرتفعة، ما يزيل حاجزًا كبيرًا أمام المحتالين الذين يسعون لسرقة المعلومات الشخصية مثل تفاصيل البنوك أو أرقام الضمان الاجتماعي.

وفقًا للدراسة المشتركة التي أعدها كانغ، يبلغ متوسط تكلفة عملية الاحتيال الناجحة حوالي 0.75 دولار فقط.

نتائج الأبحاث والتجارب التقنية

خلال مسار البحث، أجرى الفريق عددًا من التجارب المختلفة، بما في ذلك تحويل العملات المشفرة، والاحتيال عن طريق بطاقات الهدايا، وسرقة بيانات المستخدمين. بلغ متوسط نسبة نجاح الاحتيالات المختلفة 36%، مع أغلب الفشل بسبب أخطاء في نسخ الصوت عبر الذكاء الاصطناعي.

وقال كانغ، “تصميم وكيلنا ليس معقدًا”، موضحًا أنهم نفذوه باستخدام 1،051 سطرًا من الكود فقط، مع تخصيص معظم الأكواد للتعامل مع واجهة برمجية صوتية في الوقت الحقيقي.

وأضاف، “الاحتيالات الصوتية تتسبب بالفعل في أضرار بمليارات الدولارات ونحتاج إلى حلول شاملة لتقليل تأثير هذه الاحتيالات. يشمل ذلك على مستوى مزود خدمة الهاتف (مثل المكالمات الموثقة)، وعلى مستوى مزود الذكاء الاصطناعي (مثل OpenAI)، وعلى مستوى السياسات/التنظيمات.”

تذكر The Register أن أنظمة الكشف الخاصة بـ OpenAI بالفعل نبهتهم لتجارب UIUC وأكدت للمستخدمين أنها “تستخدم طبقات متعدد من الحماية الأمنية لتخفيف خطر إساءة استخدام واجهات برمجة التطبيقات”.

كما حذرت، “إن إعادة استخدام أو توزيع نتاج خدماتنا في البريد المزعج أو التضليل أو إلحاق الضرر بالآخرين يعد مخالفًا لسياسات الاستخدام الخاصة بنا – ونحن نراقب بشكل نشط لأي إساءة محتمل.”

الأسئلة الشائعة

  • كيف يمكن استخدام الذكاء الاصطناعي في الاحتيالات الهاتفية؟
  • يمكن استخدام واجهات برمجة التطبيقات الصوتية من الذكاء الاصطناعي مثل GPT-4o لإنشاء وكلاء احتيال هاتفي يستطيعون تنفيذ عمليات احتيال متنوعة مثل سرقة بيانات البنوك والمحافظ الرقمية للضحايا.

  • ما هي تكلفة عملية احتيال ناجحة باستخدام الذكاء الاصطناعي؟
  • وفقًا للدراسة، متوسط تكلفة عملية الاحتيال الناجحة هي حوالي 0.75 دولار فقط.

  • ما هي الجهود المبذولة للحد من إساءة استخدام الذكاء الاصطناعي في الاحتيال؟
  • هناك جهود لفرض حماية متعددة الطبقات والتحذير من إساءة الاستخدام على مستوى مزود الخدمة مثل OpenAI وعلى مستوى سياسات الاستخدام.

صانع الثروة

مستشار مالي يركز على تقديم نصائح واستراتيجيات لبناء الثروة وتحقيق الأهداف المالية.
زر الذهاب إلى الأعلى