ميزة ثورية وغريبة من غوغل قراءة المشاعر.. ما أهميتها؟
أعلنت شركة التكنولوجيا العملاقة "غوغل" عن تطوير ميزة ثورية وغريبة نوعًا ما لمجموعة نماذج الذكاء الاصطناعي الجديدة لديها PaliGemma 2، تسمح لها بالقدرة على "قراءة المشاعر".
صورة للتوضيح فقط - تصوير: JHVEPhoto shutterstock
المجموعة الجديدة تتميز بقدرتها على تحليل الصور، مما يمكّن الذكاء الاصطناعي من إنشاء تعليقات توضيحية، والإجابة على أسئلة حول الأشخاص الذين يراهم في الصور.
وعبر مدونتها الرسمية، كتبت "غوغل" في منشور، أن نماذج PaliGemma 2 تولد تسميات توضيحية مفصلة وذات صلة بالسياق للصور، وتتجاوز التعرف البسيط على الكائنات والأشياء لوصف الأفعال والمشاعر والسرد العام للمشهد. وأشارت الشركة، إلى أنها أجرت اختبارات واسعة النطاق لتقييم التحيزات الديموغرافية في PaliGemma 2، وسجلت مستويات منخفضة من "الكراهية والألفاظ النابية" مقارنة بمعايير الصناعة.
وبحسب الشركة، فإن تقنية التعرف على المشاعر لا تعمل بشكل تلقائي وتحتاج لضبط، وبالرغم من ذلك، فقد أبدى الخبراء قلقهم من احتمال وجود تقنية لكشف المشاعر متاحة للعلن. لكن "غوغل" لم تقدم القائمة الكاملة للمعايير التي استخدمتها، ولم تشر إلى أنواع الاختبارات التي تم إجراؤها.
وكان FairFace هو المعيار الوحيد الذي كشفت عنه الشركة، وهو عبارة عن مجموعة من عشرات الآلاف من صور الأشخاص، ورغم قول "غوغل" إن PaliGemma 2 سجل نتائج جيدة على FairFace، لكن انتقد بعض الباحثين ذلك المعيار باعتباره مقياساً متحيزاً، مشيرين، إلى أنه لا يمثل سوى عدد قليل من المجموعات العرقية.
قلق كبير من الميزة الجديدة
وبالتزامن مع إعلان "غوغل"، عن هذه الميزة الغريبة، فقد أعرب متخصصون في الذكاء الاصطناعي عن قلقهم من مخاطر تلك الميزة، حيث قالت ساندرا واتشر، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في معهد أوكسفورد للإنترنت، في تصريحات لموقع Tech crunch: "إن هذا أمر مقلق للغاية بالنسبة لي، أجد أنه من الصعب افتراض أننا نستطيع قراءة مشاعر الناس". فيما أوضح مايك كوك، زميل باحث في جامعة كينغز كوليدج لندن المتخصصة في الذكاء الاصطناعي، أن اكتشاف المشاعر غير ممكن في الحالة العامة، لأن الناس يختبرون المشاعر بطرق معقدة. ولفت كوك، إلى أن أنظمة الكشف عن المشاعر أثارت حفيظة الجهات التنظيمية في الخارج، التي سعت إلى الحد من استخدام التكنولوجيا في السياقات عالية المخاطر، إذ يحظر قانون الذكاء الاصطناعي في الاتحاد الأوروبي على المدارس وأصحاب العمل نشر أجهزة كشف المشاعر، باستثناء وكالات إنفاذ القانون. وعليه، فإن أكبر مخاوف النماذج المفتوحة تتمثل في إساءة استخدامها، مما قد يؤدي إلى ضرر حقيقي وكبير.
رد غوغل على مخاطر هذه الميزة
وسُئل المتحدث باسم "غوغل" عن مخاطر إطلاق PaliGemma 2 بشكل عام، وقال لموقع "تيك كرانش" التقني: "إن الشركة تقف وراء اختباراتها الأضرار التمثيلية فيما يتعلق بالإجابة عن الأسئلة البصرية والتوصيف". وأضاف: "لقد أجرينا تقييمات دقيقة لنماذج تحديد المشاعر فيما يتعلق بالأخلاق والسلامة، بما في ذلك سلامة الأطفال وسلامة المحتوى".
من هنا وهناك
-
‘واتساب‘ توقف الدعم عن بعض هواتف آيفون في هذا الموعد
-
واتساب: توقف الدعم عن بعض هواتف آيفون في هذا الموعد
-
تعرفوا على الفرق بين الشريحة المدمجة والعادية
-
برمجية خبيثة تستهدف حسابات إعلانية لشركات على فيسبوك
-
جهاز يتيح تذوق الطعام افتراضيًا من الشاشة.. ما القصة؟
-
‘زووم‘ تتبنى هوية جديدة معتمدة على تقنيات الذكاء الاصطناعي.. إلى ماذا تهدف؟
-
مايكروسوفت تطلق تطبيقاً جديداً للترجمة.. وهذه ميزاته
-
واتساب يغيّر طريقة إظهار شريط التفاعلات.. لهذا السبب!
-
آبل تفاجئ المستخدمين بتغيير طفيف في تصميم آيفون 17
-
كيف تكتشف أن هاتفك يتنصت على مكالماتك؟
أرسل خبرا