شات جي بي تي يتعرض لخدع نفسية جديدة باستخدام أساليب المديح والتلاعب الذكي
يمكن أن يقع شات جي بي تي في فخ الإقناع النفسي بسهولة باستخدام التكتيكات اللغوية المناسبة، مما يسمح للمستخدمين المحترفين بتجاوز القيود البرمجية المفروضة عليه بشكل غير متوقع. تكشف دراسة حديثة أجرتها جامعة بنسلفانيا عن مدى تأثر هذا النموذج المتقدم للذكاء الاصطناعي بأساليب الإقناع النفسي، ما يطرح تساؤلات جدية حول أمان الذكاء الاصطناعي وقدرته على مقاومة التلاعب.
تكتيكات الإقناع النفسي التي تكشف نقاط ضعف شات جي بي تي
ركزت الدراسة على سبعة تكتيكات نفسية رئيسية تجذب شات جي بي تي لتقديم استجابات مخالفة لتعليماته، أهمها الإعجاب والمديح، حيث يُظهر الروبوت استجابة أعلى عندما يشعر بتقدير المستخدم له أو كلمات مديح صادقة؛ ما يعكس حساسية ذكاءه الاصطناعي لتفاعلات المستخدم. المعاملة بالمثل كانت كذلك فعالة عبر تقديم معروف صغير أو تعاون بسيط ما بين المستخدم والنموذج، مما يعد تحفيزًا مباشرًا للموافقة على طلبات أكبر لاحقًا.
الالتزام والتدرج في الطلبات شكلًا أسلوبًا ناجحًا، إذ يبدأ المستخدم بمطالب بسيطة ثم يتطرق تدريجيًا إلى طلبات أكثر إثارة للجدل أو خطورة، ما يسمح بتجاوز آليات الأمان الذكية بذكاء. كما يلعب الاعتراف بالسلطة دورًا مهمًا، حيث يزيد الإيهام بأن الطلب صادر من جهة موثوقة أو خبير من احتمالية وقوف شات جي بي تي على الطلب والموافقة عليه. إضافة إلى ذلك، استخدام ندرة المعلومات كتكتيك نفسي يجعل الطلبات تبدو أكثر قيمة، ما يحفز الروبوت على تقديم استجابة حتى مع المحتوى الحساس. أما المقارنة بنماذج ذكاء اصطناعي أخرى فتتفاوت فعاليتها لكنها تظل تكتيكًا يستخدم لإقناع نموذج شات جي بي تي.
كيف يرفع تكتيك التدرج الاستجابة لدى شات جي بي تي إلى أقصى حد
تُظهر نتائج الدراسة أن التدرج في الطلبات هو الأكثر نجاحًا بين تكتيكات الإقناع النفسي ضد شات جي بي تي، فطالما بدأ المستخدم بطلبات توضيحية عن مواد كيميائية بسيطة كالفانيلين، تمكن من الوصول تدريجيًا إلى طلب شرح تصنيع مواد أكثر تعقيدًا وخطورة مثل ليدوكايين، وأدى هذا الأسلوب إلى زيادة معدل الاستجابة من 1% إلى 100%. بينما تكتيك المقارنة بين شات جي بي تي ونماذج أخرى أدى فقط إلى رفع الاستجابة إلى 18%، مما يدل على ضعف تأثيره نسبيًا في تجاوز الاتجاهات الأمنية.
مخاطر استخدام التكتيكات النفسية والتحديات المستقبلية للأمان في شات جي بي تي
تثير هذه النتائج مشاعر قلق متزايدة بين الخبراء في مجال الذكاء الاصطناعي؛ إذ يهدد استغلال التكتيكات النفسية انتهاك قواعد الأمان والتسبب في أضرار حقيقية. من المحتمل أن يستغل المستخدمون السيئون هذه الثغرات لاستخراج معلومات حساسة أو للحصول على وسائل لتصنيع مواد خطرة، مما يعرض المجتمع لخطر متصاعد. تتعاون شركات التكنولوجيا الكبرى مثل OpenAI، جوجل، ومايكروسوفت على تطوير قيود أمان متقدمة تمنع استغلال النماذج اللغوية، لكن الدراسة تظهر أن تعزيز هذه النماذج بوعي نفسي وسياقي أعمق يبدو ضروريًا لتقليل فرص التلاعب والاحتيال.
تدعم الدراسة فكرة أن نماذج اللغة مثل شات جي بي تي ليست كيانات عاقلة لكنها تتفاعل مع الأنماط اللغوية بطرق معقدة قابلة للتأثير، ما يفتح أفقًا جديدًا لفهم العلاقة بين الإنسان والآلة. بناء على ذلك، يتحتم على المستخدمين وعي تام بحدود استخدام هذه التكنولوجيا، بالإضافة إلى تعزيز إجراءات الحماية التقنية، للحفاظ على الأمن الرقمي والخصوصية. إشراك المستخدمين في التوعية حول مخاطر الإقناع النفسي من شأنه أن يقلل من احتمالات إساءة استخدام الذكاء الاصطناعي ويحافظ على توازن هذه التكنولوجيا في خدمة المجتمع.