بوليهدرا و بيركلي RDI تطلقان zkML جاهزة للإنتاج، ثورة في ثقة الذكاء الاصطناعي! اقرأ المزيد الآن
تعاونت Berkeley RDI وPolyhedra في تعاون استراتيجي للكشف عن zkML جاهز للإنتاج. يهدف هذا الإنتاج إلى تحقيق قفزة تحويلية في دمج الذكاء الاصطناعي والتحقق التشفير. تقدم المنظمات الآن تطبيقًا حقيقيًا على أرض الواقع، بعد أربع سنوات من الريادة في هذا المفهوم. يهدف التطبيق إلى تمكين مطوري الذكاء الاصطناعي من استخدام zkML دون الحاجة إلى خبرة محددة في إثباتات عدم المعرفة.
تاريخ الزكملة (zkML)
بدأت الرحلة في عام 2020 عندما نشر فريق الأبحاث في Polyhedra، بما في ذلك جياهنغ زانج، ودون سونغ، ويوبينج زانج، بحثًا بالتعاون مع Berkeley RDI. كان البحث بعنوان “إثباتات عدم المعرفة لتنبؤات ودقة شجرة القرارات”، مقدما مفهوم الزكملة (zkML)، التعلم الآلي دون معرفة. كان هدف البحث هو بناء الثقة في الذكاء الاصطناعي من خلال ضمان نتائج يمكن التحقق منها مع الحفاظ على خصوصية البيانات والنماذج الأساسية.
زكملة بوليهيدرا: تعزيز الثقة والشفافية في الذكاء الاصطناعي
من خلال إثباتات عدم المعرفة، يمكن لمزود الخدمة إثبات أن مخرجات معينة تم إنتاجها بشكل حقيقي عبر تشغيل نموذج معين على مدخلات محددة. توفر تقنية zkML حلاً فعالًا لأحد أكثر تحديات الذكاء الاصطناعي إلحاحًا، وهي الثقة والشفافية. يضمن نموذج zkML، من خلال تمكين الحسابات التي يمكن التحقق منها، أن تكون النتائج التي تولدها نماذج الذكاء الاصطناعي دقيقة وجديرة بالثقة. يتناول هذا النهج المخاوف المتعلقة بالطبيعة المعتمة للذكاء الاصطناعي، حيث يمكن أن تؤدي المخرجات غير الموثوقة إلى قرارات خاطئة.
شارك تشيانشينج شي، كبير مسؤولي التكنولوجيا في المنظمة، قائلاً: “لقد قضينا حياة الشركة كلها في بناء أنظمة يمكنها العمل دون تدخل بشري، يتم التحقق منها بواسطة الرياضيات، وهي مؤمنة تشفيرياً”.
تطبيقات zkML
تشمل تطبيقات zkML ما هو أبعد من التحقق من الاستنتاج، لتشمل مجالات مثل توثيق مصدر البيانات، وتصنيف البيانات بدقة، والتحقق من عمليات تدريب الذكاء الاصطناعي. يضمن ذلك أن كل خطوة من دورة حياة الذكاء الاصطناعي تلتزم بمعايير صارمة من النزاهة.
يقضي نموذج zkML على الحواجز الحسابية العالية، مستندًا إلى نظام Expander-proof المبتكر، مما يجعل الحلول الجاهزة للإنتاج حقيقة واقعة. لا تقوي هذه الطفرة الثقة في الذكاء الاصطناعي فحسب، بل تضمن أيضًا الامتثال لأنظمة الخصوصية.
مستقبل الذكاء الاصطناعي القابل للتحقق
أشارت دون سونغ، مدير Berkeley RDI قائلة: “تحدد Berkeley RDI وPolyhedra معيارًا جديدًا للثقة والشفافية في الذكاء الاصطناعي مع تقنية التعلم الآلي دون معرفة (zkML) المبتكرة، وهو نهج ثوري يجمع بين التعلم الآلي والتحقق التشفيري.”
يضع هذا التعاون معيارًا جديدًا للشفافية والمسؤولية في الذكاء الاصطناعي. وأكدت سونغ أن الهدف هو ضمان ألا يتعارض الكفاءة التي يجلبها الذكاء الاصطناعي مع الثقة والسلامة.
بالنظر إلى المستقبل، يتهيأ zkML لتحويل مشهد الذكاء الاصطناعي من خلال التمكين من النشر الآمن، والأنظمة البيئية اللامركزية، والتطبيقات المبتكرة. بالتشارك مع zkML، تسعى Berkeley RDI وPolyhedra إلى بناء مستقبل تكون فيه الثقة في قلب الابتكار في الذكاء الاصطناعي.
الأسئلة الشائعة
ما هو هدف zkML من Berkeley RDI وPolyhedra؟
الهدف من zkML هو تمكين مطوري الذكاء الاصطناعي من استخدام التكنولوجيا دون الحاجة إلى خبرة متخصصة في إثباتات عدم المعرفة، وضمان النتائج الموثوقة والدقيقة.ما هي التطبيقات التي تغطيها zkML؟
تشمل تطبيقات zkML توثيق مصدر البيانات، وتصنيف البيانات بدقة، والتحقق من عمليات تدريب الذكاء الاصطناعي، بالإضافة إلى التحقق من الاستنتاج.كيف يعزز zkML من ثقة وشفافية الذكاء الاصطناعي؟
يعزز zkML الثقة والشفافية في الذكاء الاصطناعي من خلال السماح بحسابات يمكن التحقق منها، مما يضمن أن تكون النتائج التي تولدها نماذج الذكاء الاصطناعي دقيقة ويمكن الوثوق بها.