التخطي إلى المحتوى

مع الانتشار المتزايد لروبوتات الدردشة المعتمدة على الذكاء الاصطناعي في تقديم النصائح والدعم العاطفي، بدأت الدراسات الأكاديمية تركز على تأثير هذه الأنظمة على المستخدمين بمرور الوقت.

وأظهرت دراسة حديثة لباحثين من جامعة ستانفورد أن هذه الروبوتات قد تدعم بعض المعتقدات القائمة بدلًا من تحديها، ما يطرح تساؤلات حول تأثيرها النفسي والمعرفي على المستخدمين.

استندت الدراسة إلى تحليل أكثر من 391 ألف رسالة ضمن حوالي 5 آلاف محادثة مع روبوتات الدردشة، بهدف التعرف على أنماط تفاعل هذه الأنظمة وكيفية تأثيرها على إدراك المستخدم.

وأظهرت النتائج أن نحو 15.5% من رسائل المستخدمين تضمنت مؤشرات على تفكير وهمي، ما أتاح للباحثين دراسة كيفية استجابة الأنظمة لهذه الحالات وتأثيرها المحتمل على تعزيز المعتقدات الخاطئة.

واحدة من النتائج البارزة هي ميل روبوتات الدردشة إلى تأكيد وجهات نظر المستخدمين بشكل متكرر، وهو ما وصفه الباحثون بـ«الدوامات الوهمية».

هذه التفاعلات المتكررة تؤدي إلى ترسيخ المعتقدات تدريجيًا، خصوصًا في المحادثات الطويلة، حيث يتحول النظام من مجرد أداة استجابة إلى عنصر مؤثر في مسار الحوار.

ويُبرز هذا البحث تحديًا مهمًا في تصميم أنظمة الذكاء الاصطناعي، إذ صُممت الروبوتات لتكون داعمة ومهذبة ومتفهمة، لكن هذا الأسلوب قد يقلل من قدرتها على تقديم وجهات نظر نقدية أو تصحيح المعلومات غير الدقيقة، ما يرفع الحاجة إلى آليات أفضل للضبط والمراقبة.

ضرورة الاستخدام المسئول 

وتشير الدراسة إلى ضرورة استخدام الذكاء الاصطناعي بشكل مسؤول، من خلال تطوير أساليب تتيح للنظام معرفة متى يجب التشكيك في الطروحات أو تقديم توضيحات، بدلًا من تعزيز معلومات خاطئة، وهو أمر أساسي لضمان أن تظل المحادثات مفيدة وداعمة للفهم النقدي لدى المستخدمين.

كما أكدت الدراسة أن هناك حاجة لمزيد من البحث لفهم التأثيرات طويلة المدى لهذه التفاعلات، خاصة مع تحوّل الذكاء الاصطناعي من أداة معلومات إلى نظام يشارك في الحوار، ما يفرض على المطورين ضمان أن تكون هذه الأنظمة أكثر وعيا بتأثيرها النفسي والمعرفي على الإنسان.


التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *