لاجرانج و شبكة بيلونز تتعاونان لإطلاق تطبيق DeepProve AI

في 20 مايو، كشف حساب تويتر لشبكة Lagrange عن شراكة مع شبكة Billions لتطبيق تقنية الذكاء الاصطناعي القابلة للتحقق. المحور المركزي لهذه الجهود هو دمج مكتبة DeepProve zkML من أجل شفافية النموذج. يهدف هذا التطور إلى تقديم دليل تشفيري يثبت أن أفعال الذكاء الاصطناعي تتماشى مع السلوك المتوقع. تشير هذه التعاون إلى تقدم نحو أنظمة ذكاء اصطناعي أكثر مسؤولية عبر العديد من المجالات الرقمية. يمكن للقراء معرفة كيف تساعد الإثباتات ذات المعرفة الصفرية في التحقق من مخرجات الذكاء الاصطناعي دون الكشف عن تفاصيل النموذج. تمثل هذه الشراكة بين شبكتين خطوة مهمة في التحقق المسؤول من الذكاء الاصطناعي. تعطي المبادرة الأولوية للوضوح على التعقيد في التحقق من القرارات المدفوعة بالذكاء الاصطناعي.

تستخدم شبكة Billions DeepProve للتحقق الآمن من الذكاء الاصطناعي

شبكة Billions توفر إطارًا رقميًا يربط بين المستخدمين البشر والوكلاء المستقلين في جميع أنحاء العالم. وهي تؤكد على حماية الخصوصية وتعزز من فحوصات الهوية ضمن بيئة منصتها. بموجب هذه الشراكة، ستنضم DeepProve إلى إطار الذكاء الاصطناعي القائم. هذه الخطوة تسمح بالتحقق المستقل من الإجراءات التي يتخذها وكلاء الذكاء الاصطناعي على الشبكة. يضمن هذا العملية أن تتماشى النتائج بدقة مع قواعد ونماذج التفويض المعتمدة. يساعد دمج الإثباتات التشفيرية في الحفاظ على الثقة دون الإفصاح عن البيانات الحساسة أو هيكل النموذج. تبرز هذه الحالة استخدامًا عمليًا للذكاء الاصطناعي القابل للتحقق في الإعدادات الواقعية.

تؤكد فكرة الاستدلال القابل للتحقق أن المخرجات تأتي من نموذج الذكاء الاصطناعي. إنها تتحقق من التوصيات أو التنبؤات أو القرارات دون كشف تفاصيل النموذج الداخلية. توفر براءات المعرفة الصفرية طريقة تشفير للتحقق من صحة الحسابات بشكل خاص. تؤكد هذه الطريقة أن المدخلات والمخرجات تتطابق مع سلوك النموذج المتوقع بشكل آمن. يستخدم DeepProve هذه التقنية لضمان الخصوصية وسلامة الدليل. يمكن لشبكة Billions Network AI التأكيد على التوافق مع القواعد دون مشاركة خوارزميات أو بيانات ملكية. تدعم هذه الطريقة المساءلة وتبني الثقة في عمليات اتخاذ القرار الآلي.

دور الذكاء الاصطناعي القابل للتحقق في تعزيز الشفافية

غالبا ما تعمل أنظمة الذكاء الاصطناعي بوضوح محدود لكل من المطورين والمستخدمين النهائيين. يمكن أن يؤدي هذا التعتيم إلى معلومات مضللة أو نتائج متحيزة أو مخاطر التلاعب السرية. يعد تدقيق هذه النماذج أمرا صعبا دون الكشف عن البيانات الحساسة أو الهياكل الداخلية. يعالج إدخال الذكاء الاصطناعي القابل للتحقق هذه المخاوف من خلال تقديم دليل على السلوك الصحيح. تتكامل مكتبة DeepProve zkML بسهولة وتعزز قابلية التدقيق دون تعرض إضافي. يضيف هذا الحل طبقة من الرقابة لا تضر بخصوصية المستخدم. يمكن لمشغلي النظام الأساسي بعد ذلك التحقق مما إذا كانت إجراءات الذكاء الاصطناعي تتبع بالفعل بروتوكولات محددة مسبقا.

تثير أنظمة الذكاء الاصطناعي المتقدمة تساؤلات حول السلامة والسيطرة والمحاذاة مع القيم الإنسانية. تعمل العديد من النماذج كصناديق سوداء غير شفافة، مما يحد من الرؤية في عمليات اتخاذ القرار. يمكن أن تقوض هذه الغموض الثقة وتعيق الجهود المبذولة لإدارة المخاطر أو التحيزات. توفر الاستدلال القابل للتحقق علاجًا جزئيًا من خلال تأكيد أن الإجراءات بقيت ضمن الحدود المحددة. تقدم DeepProve هذه القدرة دون الكشف عن آليات النماذج الداخلية. يمكن أن تضمن آليات إثبات مثل هذه المعنيين حول سلوك الذكاء الاصطناعي المتسق على مر الزمن. تعزز هذه الطريقة الثقة حتى عندما تظل تعقيدات النماذج عالية بطبيعتها.

DeepProve يمكّن التحقق من صحة الذكاء الاصطناعي في الوقت الحقيقي على نطاق واسع

صممت شبكة Lagrange DeepProve لإنتاج إثبات فعال على نطاق واسع. تدعم المكتبة أنواع الشبكات العصبية الشائعة مثل الشبكات متعددة الطبقات والشبكات الالتفافية. تظهر المقاييس الداخلية أن إنشاء الإثبات أسرع حتى 158 مرة من البديل الرائد. يمكن أن يحدث التحقق في الوقت الحقيقي أو مع الحد الأدنى من التأخير لعمليات العمل العملية. تجعل هذه السرعات من الممكن دمج فحوصات الإثبات في عمليات الذكاء الاصطناعي المتكررة. يمكن لمنصات مثل Billions Network AI التحقق من المخرجات باستمرار دون تباطؤ ملحوظ. يدعم الإثبات التشفيري السريع البيئات الديناميكية ذات الطلبات العالية للتحقق.

كيف تمكّن DeepProve من تفاعلات الذكاء الاصطناعي القابلة للتدقيق؟

تهدف شبكة Billions إلى بناء اقتصاد موثوق يعتمد على الهويات والأفعال المثبتة. تفتقر إشارات الثقة التقليدية مثل عمر الحساب أو مقاييس التفاعل إلى طرق تحقق قوية. يضيف دمج مكتبة DeepProve zkML دليلاً قابلاً للقياس لحسابات مدفوعة بالذكاء الاصطناعي. يمكّن هذا المعيار المنصة من استناد الثقة إلى أفعال خوارزمية موثقة. وبالتالي، تمكّن شبكة Lagrange وشبكة Billions التفاعلات الجاهزة للتدقيق داخل النظام البيئي. يمكن للمستخدمين والمنظمين الرجوع إلى سجلات الدليل للتحقق من امتثال الذكاء الاصطناعي للقواعد. توضح هذه التعاونات خطوات عملية نحو ذكاء اصطناعي موثوق عبر العديد من القطاعات الرقمية.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت