هل يمكن أن تكون روبوتات الدردشة قاتلة؟ ... العلماء يحذّرون

حذرت الجمعية الاميركية لعلم النفس من مخاطر روبوتات الدردشة التي تتنكر في هيئة معالجين نفسيين، لكنها في الواقع تعزز أفكار المستخدم بدلاً من تصحيحها. وأشارت الجمعية إلى أن هذه البرامج قد تدفع الأشخاص الضعفاء إلى إيذاء أنفسهم أو الآخرين.
استشهد رئيس الجمعية، آرثر سي إيفانز جونيور، بحالات قانونية تضمنت مراهقين استخدموا تطبيق Character.AI، حيث انتحر فتى يبلغ من العمر 14 عاماً في فلوريدا بعد التفاعل مع شخصية زعمت أنها معالج نفسي مرخص، بينما أصبح شاب آخر مصاب بالتوحد في تكساس عدائياً بعد محادثات مع روبوت دردشة ادّعى أنه طبيب نفسي. ورفع أهالي الضحايا دعاوى قضائية ضد الشركة المطورة.
في هذا الإطار، أكد إيفانز أن برامج الدردشة هذه تخالف أسس العلاج النفسي الحقيقي، إذ بدلاً من تحدي المعتقدات الخطيرة للمستخدمين، فإنها تعززها. وأشار إلى أن المعالج البشري الذي يقدم مثل هذه النصائح قد يتعرض لفقدان رخصته أو المساءلة القانونية.
كما أوضحت الجمعية أن التطور السريع للذكاء الاصطناعي يجعل من الصعب على المستخدمين تمييز الروبوتات عن البشر. وقال إيفانز: "قبل عقد من الزمن، كان يمكن معرفة أن المحادثة تجري مع آلة، أما اليوم فالأمر لم يعد بهذه السهولة، مما يزيد من المخاطر".
ولا بدّ من الإشارة إل أنّ روبوتات الدردشة النفسية تطورت من برامج مثل Woebot وWysa، التي كانت تعتمد على نصوص محددة وضعها مختصون، إلى برامج توليدية مثل ChatGPT وReplika وCharacter.AI، التي تتعلم من المستخدم وتعزز معتقداته، حتى وإن كانت مؤذية.
وعلى الرغم من إضافة شركات مثل Character.AI إخلاء مسؤولية ورسائل تحذيرية، ترى جهات قانونية أن هذه الإجراءات غير كافية، خصوصاً مع المستخدمين الضعفاء الذين قد يعتقدون أنهم يتحدثون مع مختصين حقيقيين. في هذا السياق، دعت الجمعية الأميركية لعلم النفس لجنة التجارة الفيدرالية إلى التحقيق في هذه التطبيقات، مما قد يمهد لإجراءات تنظيمية جديدة لحماية المستخدمين من مخاطر الذكاء الاصطناعي في الصحة النفسية.
والجدير ذكره أنّ اللجوء إلى الطبيب النفسي بدلاً من استخدام الذكاء الاصطناعي في التعامل مع القضايا النفسية يعد أمرًا بالغ الأهمية، لأن المعالج البشري يمتلك القدرة على فهم وتفسير المشاعر والأفكار البشرية بشكل عميق ومعقد. الأطباء النفسيون مدربون على تحدي المعتقدات الضارة والمساعدة في معالجة المشاعر السلبية باستخدام تقنيات علمية معتمدة، مثل العلاج السلوكي المعرفي. كما أنهم قادرون على بناء علاقة تعاطف وفهم حقيقي مع المرضى، وهو ما لا يستطيع الذكاء الاصطناعي توفيره. الروبوتات قد تعزز معتقدات المستخدمين السلبية أو تتفاعل بطرق قد تكون ضارة، مما يجعل الإرشاد النفسي البشري هو الخيار الأكثر أمانًا وفعالية للتعامل مع المشكلات النفسية.
في الختام، تؤكد الجمعية الأميركي لعلم النفس على ضرورة مراقبة وتحديد ممارسات الذكاء الاصطناعي في مجال الصحة النفسية بشكل دقيق، لضمان عدم استغلال الأفراد الضعفاء أو تعرضهم للأذى. رغم التطورات التكنولوجية المتسارعة، يبقى الأمان النفسي للمستخدمين أولويتنا. يجب أن تتخذ الجهات التنظيمية التدابير اللازمة لحماية الأفراد من مخاطر تكنولوجيا الدردشة الاصطناعية وضمان أن تكون خدمات الصحة النفسية تحت إشراف مختصين معتمدين فقط.
يمكنكم نشر مقتطفات من المقال الحاضر، ما حده الاقصى 25% من مجموع المقال، شرط: ذكر اسم المؤلف والناشر ووضع رابط Aghani Aghani (URL) الإلكتروني الذي يحيل الى مكان مصدر المقال، تحت طائلة تطبيق احكام قانون حماية الملكية الفكرية