امن وحماية المعلومات

وكالة حماية البيانات الإيطالية تحذر الناشر من مشاركة البيانات مع OpenAI – اكتشف المزيد!

تواجه شركة OpenAI عقبة تنظيمية في إيطاليا وفقًا لتعليقات هيئة حماية البيانات في البلاد، غارانتي بير لا برتزيوني دي داتي برسونالي (GPDP). أصدرت الجهة التنظيمية تحذيرًا إلى GEDI، وهي ناشر في البلاد، بعدم مشاركة أرشيف بياناتها مع OpenAI، بسبب احتمال انتهاك لائحة حماية البيانات العامة للاتحاد الأوروبي (GDPR). تأتي هذه التحذيرات بعد شراكة بين GEDI وOpenAI، والتي ستسمح لـ OpenAI بتدريب نماذج ChatGPT على محتوى باللغة الإيطالية.

تحفظات GPDP على شراكة GEDI مع OpenAI

GEDI هي شركة إعلامية مملوكة لعائلة Agnelli، وتنشر صحفًا يومية مثل لا ريبوبليكا ولا ستامبا، وأعلنت عن شراكة مع OpenAI في سبتمبر. تتضمن الشراكة تقديم محتوى باللغة الإيطالية من محفظة الأخبار الخاصة بالناشر لمساعدة OpenAI في تدريب وتحسين منتجاتها.

صرح جون إلكان، رئيس GEDI، بأن “الشراكة الموقعة مع OpenAI هي جزء من رحلة GEDI نحو التحول الرقمي وتعتبر اعترافًا بزعامتها في إنتاج محتوى عالي الجودة داخل المشهد الإعلامي الإيطالي”.

وكالة حماية البيانات الإيطالية تحذر الناشر من مشاركة البيانات مع OpenAI - اكتشف المزيد!

إلا أن GPDP تحذر من أن هذه الشراكة قد تؤدي إلى انتهاك لائحة GDPR للاتحاد الأوروبي. تحدد هذه اللائحة معيارًا عالميًا لقوانين الخصوصية، مشددة على موافقة المستخدم والشفافية والمساءلة. كما كانت أول من اقترح إطارًا تنظيميًا للذكاء الاصطناعي، والتي تدعي أنها ستعزز الاستخدام الآمن والمسؤول لهذا المجال.

“إذا قامت GEDI، بناءً على الاتفاقية الموقعة مع OpenAI، بالكشف عن البيانات الشخصية الموجودة في أرشيفها، فقد تنتهك لائحة الاتحاد الأوروبي، مع كل العواقب المحتملة، بما في ذلك التي تنطوي على عقوبات”، صرحت GPDP.

يمكن أن تكلف انتهاكات GDPR الشركات المخالفة ما يصل إلى 20 مليون يورو أو 4٪ من دورانها العالمي السنوي.

تباينات في المنظور العالمي لاستخدام الذكاء الاصطناعي

تُصعّد هذه الحلقة الأخيرة مع GEDI التوترات بين التقدم التكنولوجي والامتثال للوائح الخصوصية في الاتحاد الأوروبي. تم تغريم شركة Clearview AI الأمريكية حوالي 30 مليون يورو من قبل هيئة حماية البيانات الهولندية، مشيرة إلى انتهاك الخصوصية والحقوق المستخدم تحت GDPR. وفي وقت سابق من هذا العام، حظرت GPDP مؤقتًا ChatGPT بسبب مخاوف بشأن جمع ومعالجة بيانات المستخدم بطرق غير قانونية.

اعتمدت الولايات المتحدة نهجًا مريحًا تحركه السوق نحو الذكاء الاصطناعي، مفضلة الابتكار مع التركيز على التنظيم الذاتي في هذا المجال. “الأمر التنفيذي بشأن التطوير والاستخدام الآمن والموثوق للذكاء الاصطناعي” الصادر في أكتوبر 2023 يلمح إلى هذا النهج.

أدى غياب التشريعات الواضحة، خاصة على المستوى الفيدرالي، إلى قيام الولايات بقيادة الطريق في تنظيم الصناعة. يُعتبر قانون خصوصية المستهلك في كاليفورنيا (CCPA) مثالاً على التشريعات على مستوى الولايات المتعلقة بالذكاء الاصطناعي. كما وضعت الصين إطار عمل تنظيمي. في يوليو 2023، أصدرت إدارة الفضاء الإلكتروني في الصين لوائح حول استخدام الذكاء الاصطناعي التوليدي. وتخطط أيضًا لصياغة أكثر من 50 معيارًا للذكاء الاصطناعي بحلول عام 2026. ستطبق هذه اللوائح على مقدمي خدمات الذكاء الاصطناعي المحليين والدوليين.

الأسئلة المتكررة (FAQs)

  • لماذا تواجه OpenAI مشاكل تنظيمية في إيطاليا؟
    تواجه OpenAI مشاكل تنظيمية بسبب شراكتها مع GEDI التي قد تخرق لائحة حماية البيانات العامة للاتحاد الأوروبي (GDPR) عبر مشاركة بيانات المستخدم.
  • ما هو موقف أوروبا من تنظيم الذكاء الاصطناعي مقارنة بالولايات المتحدة؟
    تركز أوروبا على تنظيم الذكاء الاصطناعي بما يتضمن حماية خصوصية المستخدم والشفافية، بينما تعتمد الولايات المتحدة نهجًا أكثر مرونة يعتمد على الابتكار والتنظيم الذاتي.
  • كيف تستجيب الصين لتطوير الذكاء الاصطناعي؟
    وضعت الصين إطار عمل تنظيمي للذكاء الاصطناعي وهي تخطط لصياغة معايير إضافية، مما ينطبق على مقدمي خدمات الذكاء الاصطناعي المحليين والدوليين.

عرّاب التشفير

مستشار متمرس في سوق التشفير، معروف بتوجيهاته الحكيمة واستراتيجياته الفعالة في عالم التشفير.
زر الذهاب إلى الأعلى