تشات جي بي تي يذكر “ديفيد ماير” لكن يفشل في 5 أسماء وسط دعاوى قضائية ضد الذكاء الاصطناعي – اكتشف المزيد!
تستطيع أدوات الذكاء الاصطناعي مثل ChatGPT من شركة OpenAI أداء مهام متعددة، لكن المستخدمين يكتشفون بين الحين والآخر بعض الثغرات. ومؤخرًا، ظهرت تقارير تشير إلى أن ChatGPT توقف عن العمل عند سؤاله عن أسماء معينة، مثل ديفيد ماير.
تساؤلات حول معالجة النماذج للبيانات الحساسة
تساءل المجتمع الآن عن كيفية تعامل النموذج مع البيانات الحساسة أو المعقدة قانونياً. يمكننا انتظار أدوات الذكاء الاصطناعي لمعالجة المزيد من مخاوف الخصوصية وسط عدة دعاوى قضائية.
ChatGPT لا يكشف من هو ديفيد ماير
بحسب ما ورد، توقف ChatGPT من OpenAI عن العمل عند سؤاله عن أسماء معينة نهاية الأسبوع الماضي. وأشار موقع TechCrunch إلى تقارير من المستخدمين حول قائمة مرفوضة من الأسماء، تضمنت “ديفيد ماير”، مما جعل الروبوت يتجمّد أو يتعطل دون استجابة.
عندما تحققت شركة Cryptopolitan من كيفية استجابة صندوق الدردشة المعتمد على نموذج اللغة Generative Pre-trained Transformer (GPT) يوم الثلاثاء، كانت النتائج مشابهة ولكن ليست نفسها تماماً. تبين أن ديفيد ماير لم يعد اسماً محظوراً. وفقًا لـChatGPT-4، فإن ماير هو اسم شائع إلى حد ما، وإن كان لا يمكن تحديد شخص بعينه. وعند السؤال عن الخلل السابق، اكتفى ChatGPT بالقول إنه ينصح بالإبلاغ عن الردود “الغريبة والمتناقضة”.
أسماء أخرى مثل بريان هود وجوناثان تورلي وجوناثان زيتترين وديفيد فابر وغويدو سكورزا تسببت في تشوه النظام خلال نهاية الأسبوع ومرة أخرى يوم الثلاثاء عندما تحققنا.
وجد التقرير أن هذه الأسماء تخص شخصيات عامة أو شبه عامة، مثل الصحفيين أو المحامين أو أشخاص ربما تورطوا في نزاعات تتعلق بالخصوصية أو القانونية مع OpenAI. على سبيل المثال، تم تمثيل الشخص المسمى هود بشكل خاطئ من قبل ChatGPT في الماضي، مما أدى إلى مناقشات قانونية مع OpenAI.
تراكم الدعاوى القضائية ضد شركات الذكاء الاصطناعي
يخمن موقع TechCrunch أن OpenAI قد تتوخى الحذر بشأن قائمة الأسماء للتعامل مع المعلومات الحساسة أو التي تحظى بحماية قانونية بطريقة مختلفة. ربما يكون ذلك للامتثال لقوانين الخصوصية أو الاتفاقيات القانونية. ومع ذلك، قد يتسبب خلل في الكود في فشل الروبوت كلما تم البحث عن المعلومات حول الأسماء المذكورة.
على مر السنين، تم متابعة عدة قضايا بين شركات الذكاء الاصطناعي إما لتوليد معلومات خاطئة أو لانتهاك أطر خصوصية البيانات. في قضية عام 2020، جانيك ضد شركة International Business Machines، رفع المصور تيم جانيك دعوى ضد شركة IBM لاستخدامها الصور التي التقطها المصور لأغراض بحثية دون موافقة. مؤخرًا، تعرضت تقنية الذكاء الاصطناعي من Google، المعروفة بـ Gemini، لانتقادات بسبب قدراتها في توليد الصور، مما أدى إلى تعليقها مؤقتًا. في دعوى قضائية جماعية PM v. OpenAI LP المرفوعة في عام 2023، تم اتهام OpenAI باستخدام “معلومات خاصة مسروقة” دون موافقة.
في عام 2024، قدمت وكالة الأنباء الهندية ANI دعوى قضائية ضد OpenAI لاستخدامها مواد الشركة الإعلامية المحمية بحقوق الطبع والنشر لتدريب LLM.
مع اندماج أدوات الذكاء الاصطناعي بشكل متزايد في الحياة اليومية، تسلط حوادث كهذه الضوء على أهمية الاعتبارات الأخلاقية والقانونية في تطويرها. سواء كان الأمر يتعلق بحماية الخصوصية أو ضمان دقة المعلومات أو تجنب الأعطال المرتبطة بالبيانات الحساسة، تواجه شركات مثل OpenAI مهمة بناء الثقة مع تحسين تقنياتها. تذكرنا هذه التحديات أنه حتى الأنظمة الأكثر تطورًا في الذكاء الاصطناعي تتطلب يقظة مستمرة لمعالجة التعقيدات التقنية والأخلاقية والقانونية.
الأسئلة الشائعة
- هل لا تزال أسماء معينة تسبب مشاكل في ChatGPT؟
- نعم، بعض الأسماء مثل بريان هود وجوناثان تورلي لا تزال تسبب في حدوث أعطال حسب التقارير.
- لماذا تتجنب OpenAI التعامل بحرية مع بعض الأسماء؟
- يعتقد أن OpenAI تتوخى الحذر بشأن الأسماء لحماية البيانات الحساسة أو تبعاً للاتفاقيات القانونية.
- ما هي الإجراءات التي تتخذها OpenAI لمعالجة مخاوف الخصوصية؟
- تقوم OpenAI بتحسين تقنياتها باستمرار لضمان معالجة البيانات بحذر وبما يتماشى مع القوانين والاعتبارات الأخلاقية.