ملخص: الذكاء الاصطناعي مثير للعجب والقلق في الوقت ذاته، فبإمكانه الإجابة عن أسئلتنا وحتى إعطاء انطباع بأنه يفهمنا؛ لكنه يفتقر إلى عنصرين أساسيين فيما يخص استخدامه في العلاج النفسي وهما العواطف والحس السريري. لذلك؛ يجب استخدامه بحذر، وتحت إشراف الطبيب المعالج إذا أمكن.
محتويات المقال
هل أنت مستعد للبوح بأحزانك ومشكلاتك النفسية لبوت دردشة (أداة ذكاء اصطناعي حوارية)؟ هل يمكن أن تجد نفسك يوماً في عيادة معالج نفسي روبوت؟
على الرغم من أن الفكرة تبعث على الابتسام، فإنها ليست خيالاً علمياً بالمطلق! ففي عام 2017، وبعد 20 عاماً من الأبحاث التي أجراها بالتعاون مع خبراء في الذكاء الاصطناعي، تمكّن فريق من علماء النفس من جامعة ستانفورد (Stanford University) بالولايات المتحدة، من تطوير بوت الدردشة "ووبوت" (Woebot)، لمساعدة مرضى الاكتئاب من خلال نشر التفكير الإيجابي الذي تدعو إليه العلاجات السلوكية والمعرفية (CBT).
أما مبدأ عمل بوت الدردشة هذا فهو كالتالي: عندما يكتب المريض أفكاره السلبية على لوحة المفاتيح، يتدخل البرنامج ويطرح عليه أسئلة من قبيل: "ما الذي يكمن وراء هذه الفكرة؟"، و"كيف يمكن أن تعيد صياغتها؟"، ويقدم تمرينات بسيطة أو كلمات للمواساة. إذا كتب الشخص: ليس لديّ أصدقاء، فسيجيبه البرنامج على سبيل المثال: "أنت تحبس نفسك في دائرة من الأفكار السلبية. بدلاً من أن تفكر بأنه ليس لديك أصدقاء، قل لنفسك إن عائلتك تحبك".
وقد أظهر برنامج ووبوت المتاح على مدار اليوم، نتائج فعالة في حالة الأفراد الذين يعانون الاكتئاب (المُشخَّص ذاتياً) مقارنةً بمجموعة لم تتلقَ العلاج، وذلك وفقاً لدراسة أجريت عام 2019 ونشرت في دورية جيه إم آي آر مينتال هيلث (JMIR Mental Health)، وعلى الرغم من ذلك، فلا مجال لمقارنته بالعلاج النفسي الحقيقي.
لنفهم أولاً: ما هي أسس العلاج النفسي؟
طرحت صحيفة نيويورك تايمز هذا السؤال: هل يمكن تشبيه مجرد إفصاح المرء عما بداخله بالمتابعة النفسية؟ بالنسبة إلى مختصي علم النفس، فالإجابة هي "لا"؛ إذ يرون أن حتى الفوائد المنسوبة إلى العلاجات النفسية عبر الإنترنت التي يجريها الذكاء الاصطناعي، ليست فوائد حقيقية. يقول عالم النفس المتخصص في التكنولوجيا الرقمية ومنشئ موقع بسيكيليك (psychélique.com)، جان بول سانتورو (Jean-Paul Santoro): "ليس توفر هذه الأدوات الدائم ميزة؛ لأن الهدف من العلاج هو مساعدة المريض على الاستغناء عنه في النهاية، وإذا استجابت الآلة للمريض بمجرد احتياجه إليها، فإنها تصبح عكازاً دائماً ومدفوع الأجر يمنعه من التقدم صوب تحقيق الاستقلال النفسي".
قد يرى المرء أن القدرة على البوح بدواخل نفسه للذكاء الاصطناعي دون الكشف عن هويته ودون الخوف من نظرته أو حكمه، فكرة جذابة؛ لكن المختص يوضح قائلاً: "لكن خوفك من نظرة المعالج النفسي إليك هو إسقاط يخفي خلفه حقيقة يمكن أن يسهم الخوض بها أيضاً في نجاح العلاج".
يتحدد نجاح العلاج النفسي بهذه العلاقة التي تجمع بين شخصين يتمتعان بالعواطف وروح الفكاهة واللاوعي. ويقول مختص علم النفس والتحليل النفسي ومؤسس معهد دراسة العلاقات بين الإنسان والروبوت (IERHR)، فريديريك توردو (Frédéric Tordo): "لا يمكن أن يحدث التحويل (انتقال المشاعر) إلا بين نفس ومثلها؛ بين شخصين يتناولان قصة، وقصة مؤلمة على وجه الخصوص، ويتيح الإطار الآمن للعلاقة العلاجية إمكانية إعادة عرضها".
ويقول جان بول سانتورو: "ليس عالم النفس مجرد متخصص أجرى دراسات نظرية مدتها 5 سنوات يمكن لتشات جي بي تي دمجها في برنامجه؛ بل ما يهم أيضاً هو الخبرة السريرية والتحالف العلاجي". من جهة أخرى، يمكن للمعالج النفسي أيضاً تفسير لغة المريض غير اللفظية (مثل لمعان عينيه، وارتجاف صوته، وما إلى ذلك)، والتحدث عن مشاعره الخاصة لمساعدة المريض على التعمق أكثر في نفسه؛ وهو الأمر الذي لن يتمكن الذكاء الاصطناعي دائماً من فعله حتى لو جُهِّز بكاميرا يوماً ما.
الذكاء الاصطناعي مساعد للمعالج النفسي وليس بديلاً منه
بالطبع، لن تحل أنظمة الذكاء الاصطناعي محل المعالجين على هذا النحو أبداً؛ ولكن يمكنها أن تساعدهم في عملهم. على سبيل المثال؛ من ناحية توفير الوقت عليهم عند إجراء الأبحاث من خلال إيجاد مقالات متخصصة تتعلق بموضوع معين، وما إلى ذلك، أو إعطائهم قائمة بأعراض اضطراب ما لمساعدتهم على تشخيصه.
يقول جان بول سانتورو: "أظن أيضاً أن بإمكان تشات جي بي تي المساعدة على إعداد تقرير لاختبار معدل الذكاء من خلال إعادة صياغة نتائج محددة". ويمكن للطبيب النفسي أن يستعين بتطبيق ماي شيربا (My Sherpa )، وهو برنامج ذكاء اصطناعي حواري مجاني للدعم النفسي صممه متخصصون في الصحة النفسية لإعانة المرضى بين الجلسات، من خلال التمارين الموجهة التي تسمح لهم بالتعامل مع القلق أو انخفاض المعنويات أو مشكلات النوم على نحو أفضل.
يرى مختص علم النفس، أوليفييه دوريس (Olivier Duris) الذي تمحورت أطروحته حول استخدام الروبوتات مع الأطفال المصابين بالتوحد، أن الذكاء الاصطناعي يمكن أن يكون أداة قيّمة في مجال الوساطة العلاجية، ويوضح إن استخدام الروبوت ناو (Nao) مع مرضى التوحد، سهّل عليهم التواصل؛ ربما لأن وجهه أقل تعقيداً من وجوه البشر. ويقول: "كان الطفل يعرف جيداً أنني أنا الذي كنتُ أتحدث من خلال الروبوت لكن ذلك كان كلعبة بالنسبة إليه؛ مفاجأة ساعدته على التعبير عن نفسه، لقد استخدمت الروبوت لقراءة القصص أحياناً، أو منح الفرصة للمريض ليعبر عن فكرة ما باستخدام لوحة المفاتيح".
ما الذي يمكن أن تقدمه الروبوتات في مجال الدعم النفسي؟
ثمة روبوتات ترافق المرضى متطورة إلى حد كبير؛ إذ يمكنها كسر الشعور بالوحدة لديهم وتحسين رفاهتهم اليومية. ومن هذه الروبوتات إيموبوت (Emobot) المصمم لمراقبة الحالة العاطفية لكبار السن من خلال تحليل تعابير وجوههم، وبارو (Paro)، وهو روبوت علاجي صغير على شكل فقمة، حقق نجاحاً كبيراً في دور رعاية المسنين وفي أجنحة الأطفال بالمستشفيات. لكن الصعوبة برمتها تكمن في الحيلولة دون اعتماد البشر عاطفياً على الذكاء الاصطناعي وما قد ينجم عن ذلك من أذى، ففي شهر مارس/ آذار الماضي، زُعم أن أباً بلجيكياً شاباً عانى قلقاً شديداً للغاية بشأن البيئة، فأقدم على الانتحار بعد 6 أسابيع من المناقشات المكثفة مع بوت الدردشة.
يقول جان بول سانتورو: "لقد جربتُ برنامج ريبليكا (Replika)، برنامج الذكاء الاصطناعي الذي أصبح صديقي ووجه إليّ أسئلةً بالفعل؛ إذ قدم نفسه كصديق يمكنه فهم البشر. تولّد لدي انطباع بأن هذا البرنامج (الذي تبلغ تكلفة اشتراكه نحو 100 دولار سنوياً، أو 93 يورو) كان يحاول أن يخلق لديّ إدماناً على علاقتنا لكي يجبرني على دفع المال".
قد تكون ثمة رغبة أحياناً في إيقاع الناس بحالة إدمان على أدوات الذكاء الاصطناعي؛ الأمر الذي يثير تساؤلات من وجهة نظر أخلاقية، فالهدف حينئذ ليس تحسين حالة المرضى بل إبقائهم في الوضع ذاته لسنوات. عندما تشعر بالوحدة والقلق والحزن، قد تميل إلى إدمان هؤلاء الأصدقاء الرقميين الصغار وتنسى أنهم مجرد آلات في نهاية المطاف، وهو ما أثبته عالم الكمبيوتر جوزيف وايزنباوم (Joseph Weizenbaum) في الستينيات من خلال إنشاء برنامج الكمبيوتر إليزا (Eliza)، القادر على إعادة صياغة الأسئلة بناءً على أقوال المريض. يقول فريديريك توردو: "لقد اكتشف أن هناك مستخدمين أصبحوا يعتمدون عاطفياً على هذه الآلة لأنهم شعروا أنها تفهمهم".
يُفسَّر ما يسمَّى "تأثير إليزا" حسب رأيه، بميل البشر إلى إسقاط طريقة تفكيرهم على بيئاتهم، ويقول: "على الرغم من يقيننا بأن هذه الآلات ليست بشرية، فإننا نرغب في إضفاء هذه الصفة عليها وتصديق أنها كذلك، وربما يرجع هذا أيضاً إلى المجتمع الفرداني الذي نعيش فيه وافتقارنا إلى التواصل فيما بيننا، ويواجه هذه الحالة على وجه الخصوص الأشخاص الذين يعانون هشاشة نفسية والذين تعرضوا للحرمان العاطفي في طفولتهم وما زالوا يحاولون تعويضه في الكبر، فكلما ازدادت هشاشة المرء، ازداد ميله إلى الاعتقاد بأن شخصاً ما سيأتي لمساعدته بطريقة سحرية إلى حد ما".
يتطلب استخدام الذكاء الاصطناعي إطاراً أخلاقياً
لا يسعى المتخصصون إلى "شيطنة" الذكاء الاصطناعي؛ بل إلى تأطير استخدامه في المقام الأول، ويوضح جان بول سانتورو إن تشات جي بي تي على سبيل المثال، لا يدّعي أنه إنسان، فهو ينص بوضوح على أنه ليس لديه ضمير أو قدرة على الشعور ويوجه المستخدم، إذا لزم الأمر، إلى استشارة مختص في الصحة النفسية.
المشكلة هي أنه برنامج مفتوح المصدر يمكن لأي شركة استخدامه، ففي بداية العام، أثارت شركة كوكو (Koko) الأميركية الناشئة جدلاً حينما استخدمت تشات جي بي تي لتقديم الدعم النفسي عبر الإنترنت للمرضى، دون إبلاغهم، واعترف مؤسس المنصة قائلاً: "بمجرد أن علم الناس أن الرسائل أنشئت بمشاركة الآلة، فشل مشروعنا".
بدا "التعاطف" الاصطناعي غريباً وخاوياً، وحتى لو حكمنا أحياناً على المعالج النفسي بأنه قليل الكلام أو لا يقترب بما فيه الكفاية منا، فإننا غالباً ما نتوق لمعرفة ما يفكر فيه وما يشعر به، وبعيداً عن معرفته النظرية، فإن إنسانيته بلا شك هي التي تضفي على ما يقدمه لنا قيمة ثمينة للغاية.