مقدمة
شهد عام 2024 الانتشار السريع لتقنية الذكَاء الاصطنَاعي، وخاصة الذكَاء الاصطنَاعي التوليدي، وفِي cheqd، تساءلنا عن تأثيره عَلى العالم والسوق وأنفسِنا هل سيكون الأمر ببساطة استِخدام الصور المنشأة باستِخدام البرنامج MidJourney أم سيكون أكثر تحويلاً؟ (مِن الواضح أننا كنا نعتقد الأمر الأخير).
في بداية العام، بدأنا فِي استكشاف أساليب للجمع بين تقنية الهوية التي أنشأناها بالفعل (DIDs، وبيانات الاعتمَاد التي تمّ التحقق منها، وغير ذلك الكثير)، وشبكة الدفع التي تحافظ عَلى الخصوصية، والذكَاء الاصطنَاعي.
لقد بدأنا بجمع الفرضيات حول ما يُمكن أن يقدمه الذكَاء الاصطنَاعي مِن فرص وما يشكِّله مِن تحديات، ثمّ اختبرناها فِي السوق مع الشُركاء والعُملاء المُحتملين. انضممنا إلَى اتحادات مثل تحالف منشأ المُحتوى وأصالته (C2PA) ومُبادرة أصالة المُحتوى (CAI)، ونشرنا مقالات الريادة الفكرية لمُشاركة رؤانا. وقد ساعدنا هذا كله فِي التحقق مِن صحة فرضياتنا التي تطرح حاليًا، أو التي قد تطرح فِي نهاية المطاف، طلبًا حقيقيًا.
حددنا مجَالاً داخل الذكَاء الاصطنَاعي يُمكننا أن نقوده، بعد اختبار هذه الحلول وعقد الشرَاكات. يقع هذا المجَال ضمن عملنا الأساسي المُتمثل فِي الثقة والسمعة، وهو ما يصبح أكثر حيوية فِي عالم يُمكن فيه إنشاء المُحتوى والوُكلاء والكيَانات الأخرى بصورة احتيالية، مما يُؤدي إلَى خلق جائحةٍ مِن عدم الثقة.
وقد أدى بنا هذا إلَى صياغة مُصطلح “الذكَاء الاصطنَاعي القابل للتحقق”، أو ما يشار إليها اختصارًا vAI، والذي تمّ اعتمَاده فِي المجَال عَلى نطاق أوسع.
يعد القسم التالي تتويجًا لاستكشَافاتنا فِي الذكَاء الاصطنَاعي القابل للتحقق (vAI) ومجَال الذكَاء الاصطنَاعي الأوسع نطاقًا، متبوعًا بتفاصيل أكثر عن رحلتنا ونهجنا.
اتجَاهنا
لقد قلصّنا نطاق تركيزنا بشكل كبير منذ ذلك الحين، عَلى الرغم مِن أننا بدأنا بمجموعة مُتنوعة مِن الحلول والفرضيات للمُشكلات الملموسة، حسبما هو موثّق فِي الأقسام أدناه. بناءً عَلى الدروس، والاهتمام، والفهم العميق للذكَاء الاصطنَاعي وتداخله مع تقنيات الهوية اللامركزية وحَالات الاستِخدام، حددنا العروض الأكثر إقناعًا عَلى النحو التالي:
- تمكين وُكلاء الذكَاء الاصطنَاعي (بالثقة والبيانات)، مثلاً، إثبات وجود وكيل مفوّض أو ممكّن، مِن خلال تقديم بيانات موثوق بها لهؤلاء الوُكلاء.
- بيانات اعتمَاد المُحتوى، أي إثبات صحة البيانات وتوفير مصدرها فِي أثناء إنشائها، وتحريرها، ونشرها.
- إثبات الشخصية، مثلاً، إثبات الإنسانية، ولكن مِن دون اللجوء إلَى القيَاسات الحيوية أو ما يُعادلها.
يستفيد كل مِن هذه الأمور مِن القُدرات الفريدة لـ cheqd وDIDs مِن أجل تضمين الثقة والحوافِز الاقتصادية في الأنظِمة والنماذِج الجديدة مِن خِلال قُدراتنا بخصوص بيانات الاعتمَاد القابلة للتحقق، وسجلات الثقة، والمدفوعات التي تحافظ عَلى الخصوصية لبيانات الاعتمَاد، وجميعها مدعومة فِي نهاية المطاف مِن خلال $CHEQ. تسهم هذه الحلول فِي تحقيق مهمة cheqd الأصلية: التي تكمن فِي استعادة الخصوصية، وملكية البيانات، والسيطرة للأفراد، مِن خلال تمكين تجارِب العُملاء التحويلية.
علاوة عَلى ذلك، نعمل إما بصورة مباشرة عَلى إنشاء حلول فِي هذه المجَالات الثلاثة أو نُدرك أن شُركاءنا يفعلون ذلك. نظرًا للفرص الهائلة المُتاحة فِي هذه المجَالات ومن أجل تسريع وتيرة عملية التطوير، عقدنا شراكةً مع DIF مِن أجل إطلاق برمجة تشاركية (تنتهي فِي 4 نوفمبر) مِن أجل تعزيز إنشاء الحلول فِي هذه المجَالات.
في غضون الأشهر المُقبلة، سنواصل اتباع نهج منقّح لنشر الريادة فِي الأفكار، وتنفيذ الشرَاكات، وتعديل خريطة طريق مُنتجاتنا حسبما تقتضيه الضرورة لضمان أن يظل الذكَاء الاصطنَاعي جديرًا بالثقة وقابلاً للتحقق طالما يتمّ اعتمَاده.
الفرضية الأولية
اجتمعنا فِي نهاية عام 2022 وبداية عام 2023، مع اجتياح هوس الذكَاء الاصطنَاعي للسوق، مِن أجل النظر فِي كيفية تأثير الذكَاء الاصطنَاعي عَلى العالم، وزاويتنا المُحددة منه، والهوية والبيانات الموثوق بها وكذلك العكس، أي كيف يُمكن للذكَاء الاصطنَاعي أن يتأثر بالبيانات الموثوق بها. وقد توصلنا إلَى ما يلي مع الأسباب المُرتبطة بها، استنادًا إلَى فهمنا للسوق:
- بيَانات اعتمَاد المُحتوى – لقد شاهدنا بالفعل عمليات التزييف العميق ومُحتوى منشأ يُسبب الارتباك ويُستخدم فِي الاحتيال.
- مجموعات البيانات المتحقق منها – البيانات المتحيزة أو البيانات التي تمّ إنشاؤها بالفعل مِن خلال الذكَاء الاصطنَاعي كانت بالفعل تحرِّف النماذج، مما يُسلِّط الضوء عَلى الحاجة إلَى حل.
- التجمع المحلي والامتثال والطاقة – تعمل البنية التحتية للذكَاء الاصطنَاعي بصورة أفضل عَلى نطاق واسع وعندما تكون محلية، مما يُشكل تحديًا لشبكات الذكَاء الاصطنَاعي اللامركزية مِن أجل التنافس مع نظيراتها المركزية.
- إثبات الشخصية – ظهرت حالات الاحتيال سريعًا، مثال خداع Arup Hong Kong مِن أجل إرسال 200 مليون دولار هونج كونج إلَى المُحتالين.
- وُكلاء الذكَاء الاصطنَاعي المُخصصون – دار حديث لسنوات عن الوُكلاء مِن أجل مساعدة المُستخدمين فِي إدارة بياناتهم فِي نموذج SSI / DID الجديد، حيث يمتلكون بياناتهم لأن الأمر سيكون مرهقًا بخلاف ذلك.
يُمكنك معرفة المَزيد حول حالات الاستِخدام هذه عَلى مُدوناتنا..
قدمنا هذه الحلول للشُركاء والعُملاء المُحتملين، وحضرنا المؤتمرات والفعاليات، وراقبنا الأسواق بحثًا عن اتجَاهات مُتغيرة، عَلى مدار العام. ساهمنا أيضًا فِي تقارير جمعيات الصناعة مثل “تقرير INATBA عن الذكَاء الاصطنَاعي وتقارب تقنية البلوك تشين”. كانت مُحادثاتنا الأكثر قيمةً مع شُركائنا حيث تمكنا حقًا مِن التعمُّق فِي المسائل الحقيقية المقدر لنا عَلى وجه الخصوص وبصورة فريدة معالجتها.
جوانب أخرى يتعين استكشافها
تعد تطبيقات الذكَاء الاصطنَاعي القابل للتحقق واسعة النطاق، ولدينا اهتمام بحالات الاستِخدام المندرجة ضمن نطاق “تشغيل وُكلاء الذكَاء الاصطنَاعي” التي نرغب فِي استكشافها بصورة أكبر مع الشُركاء والعُملاء المُناسبين. لقد جرت مُناقشة مسألة الوُكلاء “الأذكياء” منذ فترة طويلة فِي دوائر SSI / DID استنادًا إلَى الإقرار بأنه عند منحهم خيار امتلاك بياناتهم الخاصة والتحكُّم فِيها، فسيكون ذلك مربكًا لجميع الأفراد تقريبًا، ومن ثم سيكون مطلوبًا مِن وسيط (وكيل) ذكي ومتمكن ومأخوذ بعين الاعتبار خفض التدخل فِي حياة المستخدم مع تحقيق أقصى استفادة مِن تجربته، عَلى سبيل المثال عدم الحاجة إلَى إغلاق “إعدادات ملفات تعريف الارتباط” عَلى موقع ويب لأن الوكيل قد قام بالفعل بتعيين تفضيلاتك بمجرد وصولك. في التشفير وWeb3، يتمّ استِخدام الوُكلاء بجوار “النوايا”، مع التركيز بصورة كبيرة عَلى قدرة هؤلاء الوُكلاء عَلى تنفيذ سلسلة مِن مُعاملات التمويل اللامركزي (DeFi) ضمن سياق مُحدد مِن أجل تحقيق نتيجة مرجوة. وبالمثل، تم استِخدام “التعبير عن النوايا” فِي دوائر SSI وDID للإشارة إلَى فكرة مشاركة الرغبة فِي منتج أو خدمة معينة مع العالم، وعند هذه النقطة يقدم المزودون أو الأسواق عطاءات لشركتك، مما يضمن حصولك دائمًا عَلى أفضل مُنتج أو خِدمة بأقل سعر. يقدم هذا النموذج الجديد مجموعةً مِن التحديات والفرص الجديدة. ضمان:
- أن الوُكلاء يستهلكون البيانات الموثوق بها مِن مصدر يُمكن التحقق مِنه ويعملون عَليها مِن أجل صناعة القرارات الصحيحة.
- يكمن الأمر الحاسم فِي تحقيق مهمتنا الأساسية فِي cheqd فِي تقديم حوافز اقتصادية مِن أجل تأمين البيانات الصحيحة واستِخدامها وإعادة استِخدامها.
- يفوّض الفرد الوكيل أو الوُكلاء مِن أجل تمثيله وصناعة القرارات نيابة عنه.
- ومن ثم يتمكّن الآخرون مِن إدراك أن الوكيل مخوّل وجدير بالثقة عند التعامل معه.
الخطوات التالية
نتأهب للإعلان عن شُركاء آخرين الذين تعاونا معهم، لكننا لم نُعلن عنهم بعد. توقع الإعلَانات فِي الأشهر المُقبلة.
وعلى المنوال ذاته، سنواصل جهودنا التوعوية مِن أجل تحديد الشُركاء الذين يُمكنهم مُساعدتنا فِي إنشاء هذا العالم الجديد ودعم فهمنا للقدرات التي نحتاج إليها مِن أجل تقديمها كشبكة.
وفي نهاية المطاف، سنواصل نشر المُحتوى والقيادة الفكرية فِي حين نعمل عَلى تطوير عروضنا مع شُركائنا.