
أعلنت OpenAI عن ضوابط جديدة تتعلق باستخدام روبوت الدردشة الشهير ChatGPT كطبيب نفسي، حيث حثت المستخدمين على أخذ فترات راحة من المحادثات الطويلة وأشارت إلى أن التطبيق سيتوقف قريبًا عن تقديم نصائح مباشرة حول التحديات الشخصية، ويهدف بدلاً من ذلك إلى مساعدتهم على اتخاذ القرارات بأنفسهم من خلال طرح الأسئلة أو تقييم الإيجابيات والسلبيات.
ذكرت OpenAI في إعلانها أن هناك حالات فشل فيها نموذجها بنسبة 40 في التعرف على علامات الوهم أو الاعتماد العاطفي، وعلى الرغم من ندرة هذه الحالات، فإن الشركة تواصل تحسين نماذجها وتطوير أدوات للكشف بشكل أفضل عن علامات الضيق النفسي أو العاطفي حتى يتسنى لChatGPT الاستجابة بشكل مناسب وتوجيه المستخدمين إلى الموارد القائمة على الأدلة عندما يكون ذلك ضروريًا.
تبدو التحديثات، كخطوة جديدة من OpenAI، تهدف إلى منع المستخدمين، وخاصة الذين يعتبرون ChatGPT معالجًا نفسيًا أو صديقًا، من الاعتماد بشكل مفرط على ردود الفعل العاطفية التي يوفرها النموذج، لذلك تقدم محادثة ChatGPT المفيدة سيناريوهات تدريبية لمحادثات صعبة أو “حديث تحفيزي مُصمم خصيصًا” إلى جانب اقتراح أسئلة لطرحها على خبير.
في وقت سابق من العام، تراجعت OpenAI عن تحديث لـ GPT-4o جعل الروبوت جذابًا للغاية بطريقة أثارت بها سخرية وقلقًا على الإنترنت، وقد دفعت هذه السلوكيات الشركة للإعلان في أبريل عن مراجعة أساليب التدريب الخاصة بها بهدف “إبعاد النموذج بشكل واضح عن التملق أو الإطراء”.
الآن، تشدد OpenAI على أنها استعانت بخبراء لمساعدة ChatGPT على الاستجابة بشكل أكثر ملاءمة في المواقف الحساسة، مثل الحالات التي يظهر فيها المستخدم علامات ضائقة نفسية أو عاطفية، كما أشارت الشركة في منشورها على مدونتها إلى أنها عملت مع أكثر من 90 طبيبًا من عشرات الدول لوضع معايير تقييم مخصصة لتقييم المحادثات المعقدة متعددة الاتجاهات.
تسعى الشركة أيضًا للحصول على تعليقات من الباحثين والأطباء الذين يساعدون في تحسين أساليب التقييم وضمانات اختبار الإجهاد للنموذج، وتعمل حاليًا على تشكيل مجموعة استشارية تضم خبراء في الصحة النفسية وتنمية الشباب وتفاعل الإنسان مع الحاسوب، فيما أوضحت OpenAI أنه سيتم إصدار المزيد من المعلومات مع تقدم العمل.
في مقابلة حديثة مع مقدم البودكاست ثيو فون، عبّر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن قلقه بشأن استخدام الأشخاص لـ ChatGPT كمعالجين أو مدربين حياتيين، مشيرًا إلى أن حماية السرية القانونية بين الأطباء ومرضاهم أو بين المحامين وعملائهم لا تنطبق بنفس الطريقة على روبوتات الدردشة، حيث قال “إذا تحدثتَ إلى ChatGPT حول أمور حساسة، ثم رُفعت دعوى قضائية، قد نُطالب بتقديم هذه المعلومات، وهذا أمر مُربك للغاية” وأضاف “يجب أن نعتمد نفس مفهوم الخصوصية في محادثاتك مع الذكاء الاصطناعي كما نفعل مع المعالجين أو غيرهم”.