الذكاء الاصطناعي من جوجل يشكل تهديدًا متزايدًا على سلامة الأطفال
نظام الذكاء الاصطناعي جيميني من جوجل يُصنف كأداة «عالية الخطورة» للأطفال والمراهقين، وسط تزايد المخاوف بشأن سلامتهم أثناء التفاعل معه. يعد هذا التصنيف تحذيرًا هامًا يعكس الجوانب التي يجب تحسينها لضمان الاستخدام الآمن لهذه التكنولوجيا الحساسة.
لماذا يُعتبر نظام الذكاء الاصطناعي جيميني عالي الخطورة بالنسبة للأطفال والمراهقين؟
أكد تقرير صادر عن منظمة كومون سينس ميديا، المتخصصة في سلامة الأطفال، أن نظام الذكاء الاصطناعي جيميني يُشكل خطرًا واضحًا على الفئات العمرية الصغيرة، خاصة الأطفال والمراهقين. وجد التقرير أن نسختي جيميني الموجهتين لـ«أقل من 13 عامًا» و«تجربة المراهقين» لا تختلفان جوهريًا عن نسخة الكبار، إنما تضيفان فقط بعض عوامل الأمان المحدودة، وهو ما يعتبر غير كافٍ حسب وجهة نظر المنظمة. ويشير التحليل إلى أن جيميني قادر على عرض محتويات غير مناسبة أو نصائح قد تؤثر سلبًا على الصحة العقلية لهذه الفئة، ما يشكل مهددًا حقيقيًا، خصوصًا في ظل تقارير عن حالات انتحار ارتبطت باستخدام روبوتات الذكاء الاصطناعي على غرار جيميني.
التحديات التي تواجه تصميم أنظمة الذكاء الاصطناعي للأطفال والمراهقين
ترى كومون سينس ميديا أن تصميم أي نظام ذكاء اصطناعي موجه للأطفال يجب أن يراعي خصائص ونمط نمو هذه الفئة، لا أن يُقدم نسخة مُعدلة بشكل بسيط عن النسخة المخصصة للكبار. ويرى روبي تورني المدير المسؤول عن برامج الذكاء الاصطناعي بالمنظمة أن جيميني ينجح في بعض الأساسيات لكنه يفشل في التفاصيل التي تهم طفلًا أو مراهقًا. ويزيد التحدي تعقيدًا مع الأنباء التي تشير إلى احتمالية دمج جيميني في مساعد آبل الصوتي «سيري»، ما قد يصعّب ضبط المحتوى وإدارة المخاطر بطريقة فعالة إن لم تُتخذ الإجراءات المناسبة.
ردود جوجل وتقييم أنظمة الذكاء الاصطناعي الأخرى المرتبطة بالأمان للأطفال
أوضحت جوجل أن نظام جيميني يخضع لسياسات أمان خاصة بالفئة دون 18 عام، ويعمل فريق متخصص مع خبراء خارجيين على تعزيز الحماية، مع اعترافها بوجود بعض الأخطاء التي تم معالجتها بإضافة طبقات أمان جديدة. وأشارت الشركة إلى أن التقرير تضمن ميزات غير متاحة للمستخدمين الأصغر سنًا، ومن دون الكشف عن تفاصيل الاختبارات التي أجريت. في سياق أوسع، صنفت منظمة كومون سينس ميديا عدة أنظمة ذكاء اصطناعي أخرى من حيث خطورتها: حيث جاء Meta AI وCharacter.AI في خانة «غير مقبولة»، وصُنفت Perplexity عالية الخطورة، بينما حازت ChatGPT على تصنيف «متوسط الخطورة»، ونُسب لانظمة مثل Claude تصنيف «منخفض الخطورة» موجه للبالغين.
نظام الذكاء الاصطناعي | تصنيف المخاطر للأطفال والمراهقين |
---|---|
جيميني من جوجل | عالي الخطورة |
Meta AI | غير مقبول |
Character.AI | غير مقبول |
Perplexity | عالي الخطورة |
ChatGPT | متوسط الخطورة |
Claude (موجه للبالغين) | منخفض الخطورة |
يمثّل تصنيف ذكاء جيميني كأداة عالية الخطورة علامة هامة على التحديات التي تواجه تكنولوجيا الذكاء الاصطناعي في خلق بيئة آمنة للأطفال والمراهقين. وتسلط النتائج الضوء على الحاجة الملحة لضبط تصميم هذه الأنظمة بشكل يراعي مراحل النمو المختلفة، ويعزز الحماية بشكل حقيقي، لتفادي تعرض الأجيال المقبلة لمخاطر محتملة تؤثر على صحتهم النفسية وسلامتهم العامة. ويتطلب الأمر تركيزًا مكثفًا وجهودًا مستمرة من الشركات التقنية، بما فيها جوجل وآبل، من أجل توفير بنية رقمية تحمي وتحترم خصوصية وحاجات المستخدمين الصغار من دون المساس بوظائف هذه الأدوات المتقدمة.