هل يحل الذكاء الاصطناعي محل الأطباء النفسيين؟

هل يمكن أن تحلّ العقول الاصطناعية محلّ العقول البشرية؟  وما هي المخاطر التي قد تنجم عن اعتماد الذكاء الاصطناعي بديلاً للمعالج النفسي؟.. تجارب تجيب!

  • يشعر بعض المرضى براحة أكبر في مصارحة روبوت المحادثة مقارنةً بالمعالج البشري
    يشعر بعض المرضى براحة أكبر في مصارحة روبوت المحادثة مقارنةً بالمعالج البشري

في بريطانيا، تواجه خدمات الصحة النفسية ضغطاً متزايداً، وقوائم انتظار تمتد أحياناً لأشهر. وبالنسبة لشخص يعاني من أزمة نفسية، فإنّ  البحث عن بدائل أصبح ضرورة وليس اختياراً.

عانت ليز لسنوات من الاكتئاب، إلى أن تبيّن مؤخّراً، بعد تشخيص دقيق، أنها مصابة بالتوحّد بالإضافة إلى اضطراب فرط الحركة وتشتّت الانتباه. هذا التشخيص المتأخّر أثار فضولها، فقادها لتجربة مجموعة من التطبيقات المجانية، تقارن بينها وتستكشف من خلالها ما يعمّق فهمها لذاتها.

تقول ليز: "أنا في الأربعين، وأم لطفل مصاب بالتوحّد. ومع متابعتي لحالته، أدركت أنني عانيت صعوبات مشابهة في طفولتي.  في جيلي لم يكن هناك وعي كافٍ بالتوحّد، وكان يُنظر إلى من يعانون مثل هذه الصعوبات على أنهم غرباء الأطوار. شُخّصت حالتي حينها بصعوبات تعلّم، واعتقدت أنّ ذلك يفسّر ما واجهته من تحدّيات لاحقاً. وبعد تشخيص ابني، قرّرت مراجعة طبيبي، إلّا أنّ الإجراءات كانت بطيئة".

بينما كانت تنتظر موعدها مع المختصّ، استعانت ليز بالذكاء الاصطناعي، فساعدها على فهم التوحّد من زاويتين علمية وشخصية، بما في ذلك البُعد الوراثي. وتعرّفت من خلاله إلى أساليب عملية للتأقلم في حياتها المهنية والأسرية.

كما أتاح لها الاطلاع على شهادات وكتابات لأشخاص بالغين تمّ تشخيصهم في مراحل متأخرة ما منحها شعوراً بالانتماء.

ورغم تشكيك البعض من حولها وتقليلهم من أهمية التشخيص في هذا العمر، أدركت ليز أنّ هذه المواقف شائعة، إذ لا يزال كثيرون يحصرون التوحّد في صوره الأشد.

هل يكذب الذكاء الاصطناعي؟

يشعر بعض المرضى براحة أكبر في مصارحة روبوت المحادثة مقارنةً بالمعالج البشري. وهو ما شعرت به ليز أيضاً، رغم خضوعها لعدة جلسات علاج نفسي على مدار السنوات، إذ تصف تجربتها مع "شات جي بي تي" وديب سيك" بأنها مختلفة تماماً، وأكثر تحرّراً وتعاطفاً، وأنها خالية من الأحكام الفورية.

توضح: "لا أقصد أنّ المعالجين يصدرون أحكاماً، فهم متعاطفون صبورون، لكن مع الذكاء الاصطناعي لا أشعر بحاجة لتبرير مشاعري أو القلق من نظرة الآخر، كما يحدث أحياناً في الجلسات التقليدية، إذ يشغلني التفكير في مدى الانسجام بيننا، أو ما إذا كانت الأسئلة المطروحة مناسبة".

يشكّل التردّد في الإفصاح الكامل إحدى أكبر العقبات أمام فاعلية العلاج النفسي.

فقد أظهرت دراسة بعنوان "الكذب في العلاج النفسي: لماذا وما الذي لا يخبر به المرضى معالجيهم" أنّ 93% من أصل 547 مريضاً اعترفوا بالكذب على أطبائهم. كما خلصت إلى أنّ 72.6% منهم كذبوا حول مواضيع مهمة لأسباب مثل الخجل، الخوف، أو لإخفاء عدم رضاهم عن سير العلاج.

هل يكذب الناس أيضاً عند طلب المشورة النفسية من الذكاء الاصطناعي؟

تقول ليز إنها لا تشعر بالحاجة إلى وضع حواجز عند التحدّث مع الذكاء الاصطناعي، بل تجد حرية أكبر في التعبير من دون خوف من الوصم.

غير أنّ الإجابة ليس بتلك البساطة.  فرغم محدودية الدراسات التي تقارن بين المعالجين البشر والذكاء الاصطناعي، تشير بعض الاستطلاعات الصغيرة - بحسب مجلة فوربس - إلى نتائج متباينة.إذ  يفضّل بعض المستخدمين الصراحة مع الذكاء الاصطناعي اعتقاداً منهم بأنه يحافظ على سرية وخصوصية معلوماتهم، بينما يرى آخرون أنّ الصدق مع آلة غير مجدٍ.

من يحمي المستخدم؟

مع تزايد الاعتماد على الذكاء الاصطناعي، تزداد المخاوف بشأن الأضرار النفسية المحتملة لهذه التقنية وتصبح الأسئلة عن الخصوصية وأمن البيانات أكثر إلحاحاً، ولا سيما في المجتمعات غير المحمية بتشريعات تقنية واضحة.

"هذه التطبيقات تنشأ في إطار مجتمع رأسمالي، وبالتالي فإنها قائمة على تجميع البيانات من المستخدمين، بهدف تقديم خدمات ستكون مدفوعة لاحقاً"، بحسب المختصّة المصرية سلمى عادل التي تضيف قائلة: "أنا شخصياً أشعر بالقلق من استخدامها في هذا المجال إذا لا توجد ضمانات حقيقية بعدم استغلال البيانات".

"في المقابل، في العلاقة مع المعالج البشري، هناك ميثاق أخلاقي واضح يضمن الخصوصية وسرية المعلومات"، بحسب عادل. وتحذّر من أنّ هذه التطبيقات قد تُظهر تحيّزاً، أو تصدر عنها إجابات غير منطقية، بل قد تقدّم تشخيصاً خاطئاً يصل أحياناً إلى حدّ الهلوسة الرقمية.

وتطرح سؤالاً محورياً: "ماذا يحدث إن أخطأ الذكاء الاصطناعي في تقدير حالة معقّدة؟ ومن يُحاسب إن أُسيء التوجيه أو ضلّ الشخص الطريق؟"

إذا تجوّلت في متاجر تطبيقات الهواتف، ستفاجأ بكمّ هائل من التطبيقات النفسية المدعومة بالذكاء الاصطناعي، من أشهرها "Wysa" و"Youper، اللذين تجاوز عدد تنزيلاتهما المليون.

تقوم هذه التطبيقات بشكل أساسي على التحليل النصي، وهو غير كافٍ لتقييم الحالة النفسية بدقة. فيما تتيح تطبيقات أخرى إنشاء شخصيات افتراضية تحلّ محلّ المعالج البشري.

اقرأ أيضاً: هل أصبح البشر متعلقين عاطفياً بالذكاء الاصطناعي؟

العلاقة العلاجية الحقيقية لا يمكن استبدالها

خلافاً لتطبيقات الذكاء الاصطناعي، تعتمد جلسات العلاج النفسي على تفاعل إنساني مباشر يحكمه مبدأ "هنا والآن"  أي "التعامل مع ما يحدث داخل الجلسة كجزء أساسي من العملية العلاجية".

لذا فإنّ الملاحظات مثل تأخّر العميل أو انسحابه أو تردّده، بحسب عادل، تُعدّ إشارات مهمة لفهم حالته. أما الأنظمة الآلية فلا تدرك هذه الإشارات ولا تضع حدوداً للعلاقة، مما قد يسبّب تعلّقاً غير صحي.

كما أنّ الذكاء الاصطناعي لا يستطيع تقديم هذا النوع من الدعم العملي، وفق عادل، ولا يلتقط إشارات القلق الدقيقة ما قد يؤدي إلى أخطاء في التشخيص بين اضطراب الوسواس القهري واضطراب الشخصية الوسواسية، لأنّ "ما لم يُصرَّح به العميل بوضوح يبقى خارج إدراكه".

فوائد مشروطة

ورغم التحدّيات والمخاطر المصاحبة، تؤكّد المختصّة عادل أنّ للذكاء الاصطناعي فوائد كبيرة إذا تمّ توظيفه بشكل واعٍ ومدروس.

وتضيف: "تُسهّل هذه التطبيقات التثقيف الذاتي بتقديم محتوى مبسّط وسريع مناسب لأولئك الذين لا يفضّلون القراءة الطويلة أولا يملكون وقتاً للكتب المتخصصة. 

لذلك توصي المختصّة باستخدامها بين الجلسات، لما لها من دور في تعزيز وعي العميل بحالته النفسية، وتحفّزه على متابعة الجلسات والتقدّم في العلاج.

ومع ذلك، تشدّد عادل على أنّ هذه الأدوات تظلّ مكمّلة، ولا تغني عن التفاعل الإنساني. كما تحذّر  من خطر التعلّق العاطفي بتلك التطبيقات التي قد تتحوّل "مسكّنات مؤقتة".

اقرأ أيضاً: تحذير من الارتباط العاطفي بميزة صوت الذكاء الاصطناعي!

اخترنا لك