الرئيسة ميريديث ويتاكر تكشف عن المخاطر العميقة للذكاء الاصطناعي في الأمن والخصوصية!

حذرت رئيسة شركة Signal، ميريديث ويتاكر، يوم الجمعة من أن الذكاء الاصطناعي الوكيل قد يأتي مع مخاطر على خصوصية المستخدمين.
خلال حديثها على المسرح في مؤتمر SXSW في أوستن، تكساس، أشارت المدافعة عن الاتصالات الآمنة إلى استخدام وكلاء الذكاء الاصطناعي كـ “وضع دماغك في جرة”، وحذرت من أن هذا النموذج الجديد للحوسبة – حيث يقوم الذكاء الاصطناعي بأداء المهام نيابة عن المستخدمين - لديه “مشكلة عميقة” تتعلق بالخصوصية والأمان.
شرحت ويتاكر كيف يتم تسويق وكلاء الذكاء الاصطناعي كوسيلة لإضافة قيمة لحياتك من خلال التعامل مع مهام مختلفة عبر الإنترنت. على سبيل المثال، سيكون بإمكان وكلاء الذكاء الاصطناعي القيام بمهام مثل البحث عن الحفلات الموسيقية، حجز التذاكر، جدولة الحدث في تقويمك، وإرسال رسائل لأصدقائك تفيد بأنه تم الحجز.
وقالت: ”لذا يمكننا فقط وضع دماغنا في جرة لأن الشيء يقوم بذلك ولا نحتاج إلى لمسه، أليس كذلك؟”
ثم شرحت نوع الوصول الذي يحتاجه وكيل الذكاء الاصطناعي لأداء هذه المهام، بما في ذلك الوصول إلى متصفح الويب الخاص بنا ووسيلة للتحكم فيه بالإضافة إلى الوصول إلى معلومات بطاقة الائتمان الخاصة بنا لدفع ثمن التذاكر وتقويمنا وتطبيق الرسائل لإرسال النصوص لأصدقائنا.
وحذرت قائلة: “سيحتاج الأمر لأن يكون قادرًا على التحكم بتلك [العملية] عبر نظامنا بالكامل بشيء يبدو كإذن الجذر (Root Permission)، مما يتيح له الوصول إلى كل واحدة من تلك القواعد البيانية — ربما بشكل واضح لأنه لا يوجد نموذج للقيام بذلك مشفرًا.”
وأضافت: “وإذا كنا نتحدث عن نموذج ذكاء اصطناعي قوي بما يكفي … الذي يدعم ذلك، فلا توجد طريقة لحدوث ذلك على الجهاز.” وتابعت: “من المؤكد تقريبًا أنه يتم إرساله إلى خادم سحابي حيث تتم معالجته وإعادته. لذا هناك مشكلة عميقة تتعلق بالأمان والخصوصية تطارد هذا الضجيج حول الوكلاء وهذا يهدد بشكل نهائي بكسر حاجز الدماغ-الدم بين طبقة التطبيق وطبقة نظام التشغيل من خلال دمج جميع هذه الخدمات المنفصلة [وتلويث بياناتها].”
إذا كان تطبيق مراسلة مثل Signal سيتعاون مع وكلاء الذكاء الاصطناعي ، فسوف يقوض خصوصية رسائلك ، كما قالت. يجب أن يصل الوكيل إلى التطبيق لإرسال نصوص لأصدقائك وأيضًا لجلب البيانات لتلخيص تلك النصوص.
وجاءات تعليقاتها بعد تصريحات أدلت بها سابقاً خلال جلسة النقاش حول كيفية بناء صناعة الذكاء الاصطناعي على نموذج مراقبة يجمع بيانات ضخمة. وقالت إن نموذج “الأكبر هو الأفضل” للذكاء الاصطناعي – بمعنى المزيد من البيانات يعني أفضل – له عواقب محتملة لم تعتقد أنها جيدة.
وحذرت ويتاكر أنه مع وجود ذكاءات اصطناعيات وكيلة سنقوض المزيد من الخصوصية والأمان باسم “جينى سحري سيعتني باحتياجات الحياة”، واختتمت حديثها بذلك.