تحليلات

في مواجهة المراقبة بالذكاء الاصطناعي، نحتاج إلى الحوسبة السرية اللامركزية- اكتشف المزيد!

المقال التالي هو مقال ضيف بقلم يانيك شراد، الرئيس التنفيذي والمؤسس المشارك لشركة أرسيم. عندما شارك كبير مسؤولي التقنية في أوراكل، لاري إليسون، رؤيته لشبكة عالمية من المراقبة المدعومة بالذكاء الاصطناعي للحفاظ على “أفضل سلوك” للمواطنين، سارع النقاد إلى مقارنة ذلك برواية جورج أورويل “1984” ووصفوا هذا العرض التجاري بالديستوبي. المراقبة الجماعية تعد خرقًا للخصوصية، ولها آثار نفسية سلبية، وتخيف الناس من المشاركة في الاحتجاجات.

الواقع المتزايد للمراقبة الجماعية المدعومة بالذكاء الاصطناعي

لكن ما يثير القلق في رؤية إليسون للمستقبل هو أن المراقبة الجماعية المدعومة بالذكاء الاصطناعي أصبحت بالفعل حقيقة. خلال الألعاب الأولمبية الصيفية هذا العام، تعاقدت الحكومة الفرنسية مع أربع شركات تقنية – فيديتيكس، أورانج بيزنس، شابسفيجين ووينتكس – لتنفيذ المراقبة بالفيديو في جميع أنحاء باريس، باستخدام تحليلات القائمة على الذكاء الاصطناعي لمراقبة السلوك وتنبيه الأمن.

أتاحت هذه السياسة المثيرة للجدل بفضل تشريع أُقر في عام 2023 يسمح للبرامج الجديدة المدعومة بالذكاء الاصطناعي بتحليل البيانات العامة. بينما تظل فرنسا الدولة الأولى في الاتحاد الأوروبي التي تُقنن المراقبة بالذكاء الاصطناعي، فإن تحليلات الفيديو ليست جديدة. الحكومة البريطانية أول ما قامت بتركيب كاميرات المراقبة في المدن كان خلال الستينيات، وبحلول عام 2022، كانت 78 من أصل 179 دولة في منظمة التعاون الاقتصادي والتنمية تستخدم الذكاء الاصطناعي لأنظمة التعرف على الوجوه العامة.

في مواجهة المراقبة بالذكاء الاصطناعي، نحتاج إلى الحوسبة السرية اللامركزية- اكتشف المزيد!

تاريخياً، استفادت الحكومات من التقدم التكنولوجي لتحديث أنظمة المراقبة الجماعية، وغالبًا ما تقوم بتعاقد شركات خاصة للقيام بالأعمال الشاقة نيابة عنها. في حالة الألعاب الأولمبية في باريس، تم تمكين الشركات التقنية من اختبار نماذج تدريب الذكاء الاصطناعي الخاصة بها في حدث عام واسع النطاق، مما منحها الوصول إلى معلومات عن مواقع وسلوكيات ملايين الأفراد الذين يحضرون الألعاب ويمارسون حياتهم اليومية في المدينة.

الخصوصية مقابل السلامة العامة: المعضلة الأخلاقية للمراقبة بالذكاء الاصطناعي

سيجادل المدافعون عن الخصوصية مثلي بأن المراقبة بالفيديو تمنع الناس من العيش بحرية وبدون قلق. قد يجادل صناع السياسات الذين يستخدمون هذه التكتيكات بأنهم يفعلون ذلك باسم السلامة العامة؛ كما أن المراقبة تُبقي السلطات تحت النظر، على سبيل المثال من خلال مطالبة رجال الشرطة بارتداء كاميرات الجسد. السؤال ليس فقط فيما إذا كان ينبغي للشركات التقنية الوصول إلى البيانات العامة في المقام الأول، بل أيضًا مدى إمكانية تخزين المعلومات الحساسة بأمان ونقلها بين عدة جهات.

هذا يقودنا إلى أحد أكبر التحديات لجيلنا: تخزين المعلومات الحساسة عبر الإنترنت وكيفية إدارة هذه البيانات بين مختلف الأطراف. بغض النظر عن نية الحكومات أو الشركات في جمع البيانات الخاصة من خلال المراقبة بالذكاء الاصطناعي، سواء كان ذلك لأغراض السلامة العامة أو المدن الذكية، يجب أن يكون هناك بيئة آمنة لتحليل البيانات.

الحوسبة السرية الموزعة: حل لخصوصية بيانات الذكاء الاصطناعي

تقدم حركة الحوسبة السرية الموزعة (DeCC) رؤية لكيفية معالجة هذه القضية. تستخدم العديد من نماذج تدريب الذكاء الاصطناعي، مثل الاستخبارات الخاصة بأبل، بيئات التنفيذ المعتمدة (TEEs) التي تعتمد على سلسلة توريد مع نقاط فشل واحدة تتطلب الثقة في الطرف الثالث، من عملية التصنيع إلى التصديق. تهدف DeCC إلى إزالة تلك النقاط الفردية من الفشل، وإرساء نظام لامركزي ولا يحتمل الاعتماد على الثقة لتحليل البيانات ومعالجتها.

علاوة على ذلك، يمكن لـ DeCC أن تمكن البيانات من التحليل دون فك تشفير المعلومات الحساسة. نظريًا، يمكن لأداة تحليل الفيديو المبنية على شبكة DeCC أن تنبه إلى تهديد أمني دون الكشف عن معلومات حساسة عن الأفراد الذين تم تسجيلهم للأطراف المراقبة بتلك الأداة.

هناك عدد من تقنيات الحوسبة السرية الموزعة يتم اختبارها حاليًا، بما في ذلك براهين عدم المعرفة (ZKPs)، والتشفير الكامل المتجنيث (FHE)، والحوسبة متعددة الأطراف (MPC). تسعى كل هذه الأساليب أساسًا إلى تحقيق الهدف نفسه – التحقق من المعلومات الأساسية دون الكشف عن المعلومات الحساسة لأي من الأطراف.

ظهر MPC كواجهة متقدمة في مجال الحوسبة السرية الموزعة، مما يمكّن التسوية الشفافة والإفصاح الانتقائي مع أقصى قدر من القدرة الحاسوبية والكفاءة. تتيح MPCs بناء بيئات التنفيذ متعددة الأطراف (MXE). حاويات تنفيذ مشفرة ومحجوبة، حيث يمكن تنفيذ أي برنامج حاسوبي بطريقة مشفرة وسرية تمامًا.

في السياق الحالي، يمكن ذلك من تنفيذ كل من التدريب على البيانات المشفرة شديدة الحساسية والمعزولة والاستنتاج باستخدام البيانات المشفرة والنماذج المشفرة. لذلك، في الواقع، يمكن تنفيذ التعرف على الوجه بينما يتم الحفاظ على إخفاء هذه البيانات عن الأطراف التي تعالج تلك المعلومات.

ومن ثم يمكن مشاركة التحليلات المستخلصة من تلك البيانات بين مختلف الأطراف المعنية، مثل السلطات الأمنية. حتى في بيئة تركز على المراقبة، يصبح من الممكن على الأقل إدخال الشفافية والمساءلة في المراقبة التي تم تنفيذها مع الحفاظ على سرية معظم البيانات وحمايتها.

بينما لا تزال تقنية الحوسبة السرية اللامركزية في مراحل التطوير، فإن ظهور هذه التقنية يبرز المخاطر المرتبطة بالأنظمة المعتمدة ويقدم طريقة بديلة لتشفير البيانات. في الوقت الحالي، يجري دمج التعلم الآلي في كل قطاع تقريبًا، من تخطيط المدن إلى الطب، والترفيه وأكثر.

بالنسبة لكل من هذه الاستخدامات، تعتمد نماذج التدريب على بيانات المستخدم، وستكون DeCC أساسية لضمان الخصوصية الفردية وحماية البيانات في المستقبل. لتجنب مستقبل ديستوبي، يجب أن نلامركز الذكاء الاصطناعي.

الأسئلة الشائعة

  • ما هي المزايا الرئيسية للحوسبة السرية الموزعة؟
    الحوسبة السرية الموزعة تقدم وسيلة لتحليل البيانات المشفرة دون فك معلومات حساسة، مما يعزز الأمان والخصوصية في معالجة البيانات.
  • ما دور الذكاء الاصطناعي في المراقبة الجماعية؟
    يتم استخدام الذكاء الاصطناعي لتحليل السلوكيات والأنماط في الوقت الفعلي، مما يعزز القدرة على رصد التهديدات الأمنية المحتملة وتلبية متطلبات السلامة العامة.
  • لماذا يعتبر البعض المراقبة بالذكاء الاصطناعي تهديداً لخصوصية الأفراد؟
    يرى العديد أن المراقبة بالذكاء الاصطناعي تنتهك الخصوصية وتخلق بيئة تخويفية، حيث يخشى الأفراد من أن تكون أنشطتهم تحت الرصد المستمر.

ثعلب البيتكوين

مستشار مالي متخصص في العملات الرقمية، يركز على تحليل أسواق البيتكوين وكشف الفرص الاستثمارية المميزة.
زر الذهاب إلى الأعلى