دراسة تحذر: تعاطف "روبوتات الدردشة" مع المستخدمين يؤدي إلى نتائج عكسية

2026-04-24    HaiPress

ينصح الخبراء مطوري الذكاء الاصطناعي بإعادة التفكير في تصميم هذه التفاعلات

كشفت دراسة حديثة نشرها موقع "Techxplore" أن محاولات روبوتات الدردشة وأنظمة الذكاء الاصطناعي لإظهار التعاطف مع المستخدمين قد تأتي بنتائج سلبية.

وأوضح الباحثون أن عبارات التعاطف الاصطناعي، خصوصا عند حدوث أعطال في الخدمة، تثير لدى العملاء شعورا بعدم الارتياح بدلا من التهدئة المنشودة.

"الرفض النفسي": لماذا ننزعج من عبارة "أتفهم إحباطك"؟

خلصت الدراسة المنشورة في مجلة "MIS Quarterly" إلى أن استخدام عبارات مثل "أتفهم إحباطك" من قبل أنظمة مثل (ChatGPT) يحفز ما يسمى بـ "الرفض النفسي".

وهو رد فعل يقع عندما يشعر المرء أن حريته الخصوصية مهددة، حيث يبدو تحليل النظام لمشاعر المنشور أمرا تدخليا وغير مريح، مما يقلل من مستوى الرضا العام عن الخدمة.

تجارب جامعية: التعاطف الاصطناعي محل اختبار

أجرى فريق بحثي من جامعات "ماكجيل" و"جنوب فلوريدا" و"هونغ كونغ المعمدانية" ثلاث تجارب تفاعل خلالها المشاركون مع روبوتات ارتكبت أخطاء تقنية.

وكانت النتيجة الصادمة أن الروبوتات التي اكتفت بالرد المباشر دون محاكاة المشاعر حققت قبولا أعلى من تلك التي حاولت التقرب العاطفي من المستخدم، مما يعني أن نقل السلوك البشري للآلة لا ينجح دائما.

الاعتذار المباشر والفكاهة.. بدائل للتعاطف الممثل

ينصح الخبراء مطوري الذكاء الاصطناعي بإعادة التفكير في تصميم هذه التفاعلات.

وبدلا من التعاطف "المصطنع"، يفضل الاعتماد على الاعتذار المباشر أو أسلوب بسيط وواضح، وربما إدخال قليل من الفكاهة دون المبالغة في تقليد الإنسان.

وتشير الدراسة في ختامها إلى أن بقاء الروبوت في إطاره الوظيفي الواضح هو الخيار الأنسب لكسب ثقة العملاء.

هذه المادة مستنسخة من وسائل الإعلام الأخرى التي تهدف إلى نقل مزيد من المعلومات ، لا يعني أن الشبكة لا توافق على آرائها ، ولا تتحمل أي مسؤولية قانونية عن أصالة جميع الموارد التي تم جمعها في هذا الموقع على شبكة الإنترنت ، لأغراض مشتركة فقط بالنسبة لك لتعلم و الرجوع إلى ، إذا كان لديك حقوق الطبع والنشر أو التعدي على حقوق الملكية الفكرية ، يرجى ترك رسالة

آخر

وصلة ودية

Back to top
© حقوق النشر 2009-2020 أخبار السعودية اليومية      اتصل بنا   SiteMap