در سال­های اخیر، استفاده از چت­‌بات­‌های هوش مصنوعی مانند ChatGPT برای کاربردهای مختلفی مثل حل مسايل ریاضی، ترجمه­‌ی متون، تولید محتوا، و حتی تهیه فهرستی از غذاها یا دستور آشپزی افزایش یافته است. 

اما برخی افراد از این چت‌بات‌ها به عنوان درمان‌گر یا تراپیست استفاده می‌کنند و نتایج خود را در شبکه‌های اجتماعی با دیگر کاربران به اشتراک می‌گذارند. این افراد به جای مراجعه به روان پزشک، پرسش‌ها و مشکلات سلامت روان خود را با چت جی‌پی‌تی در میان می‌گذارند و جلسات روان درمانی رایگان یا مشاوره‌های درمانی راحت ِ بدون اتلاف وقت و هزینه، دریافت می‌کنند. 

یک کاربر تیک‌تاک تا آن‌جا پیش می‌رود که تراپیست خود را با ربات هوش مصنوعی جایگزین کرده و اعلام می­کند: «امروز به طور رسمی، جلسات درمانی خود را تعطیل کردم و از بهترین جایگزین آن‌ها، یعنی ChatGPT استفاده خواهم کرد.»

این فعالیت‌ها و تصمیم‌ها برای افرادی که در حوزه­ی روان درمانی و تراپی، مشغول به فعالیت هستند؛ نگران‌کننده است اما آیا آن‌ها نگران از دست دادن شغل و درآمد خود هستند؟

دکتر «بروس آرنو»، استاد گروه روان‌پزشکی و روان‌شناس ارشد دانشگاه استنفود در این باره می‌گوید: «به این موضوع شک و تردید داشته باشید. چت‌بات‌های هوش مصنوعی جایگزینی برای درمان، روان‌درمانی یا هر نوع مداخله­ی روان‌پزشکی نیستند و برای این هدف نیز ساخته نشده­اند. البته، زیاد دور نیست زمانی که آن‌ها برای چنین کارهایی آماده باشند اما ما دقیقا نمی‌دانیم آیا هرگز این اتفاق می‌افتد یا خیر!»

در این نوشتار، به مرور نظرات روان‌شناسان متخصص درباره­ی چرایی استفاده از هوش مصنوعی به عنوان یک تراپیست و نگرانی‌های آن‌ها، و همچنین بهترین روش‌های جست‌وجو و کمک‌گیری از چت‌بات‌ها در مسایل مربوط به سلامت روان می­پردازیم. در آخر، به این پرسش پاسخ می‌دهیم که چگونه هوش مصنوعی می‌تواند در آینده به طور امن و مطمئنی جایگزین تراپیست‌های انسانی شود!

چگونه مردم از چت‌بات‌های هوش مصنوعی به عنوان درمان‌گر استفاده می‌کنند؟

تصور اینکه یک «جلسه تراپی» با هوش مصنوعی، چگونه است؛ کمی چالش‌برانگیز به نظر می‌رسد اما برای اکثر کاربران آنلاین، به سادگی تبادل پیام با یک چت‌بات است؛ جایی که به افراد اجازه می‌دهد پرسش­های خاص و اغلب شخصی را بپرسند.

یکی از کاربران تیک‌تاک که دنبال‌کنندگان خود را برای استفاده و مکالمه با ChatGPT راهنمایی می‌کرد؛ می‌گوید: «به چت‌بات گفتم باید به عنوان یک تراپیست برای من باشد و در مواقع خاصی که دچار مشکل می‌شوم و نمی‌دانم چه باید بکنم؛ به حمایتش نیاز دارم.»

چت جی‌پی‌تی پیش از پرسیدن سوالات و ابزار نگرانی سازنده درباره­ی وضعیت روحی او یا ارائه راه‌حل‌های ممکن، پاسخ می‌دهد: «اینجا هستم حمایت کنم و مشاوره بدهم.» همچنین توصیه می‌کند اگر نگرانی‌هایش زیاد است یا همچنان آشفته است؛ کمک‌های حرفه‌ای دریافت کند.

یکی دیگر از تولیدکنندگان محتوا در تیک‌تاک، اسکرین‌شات‌هایی از مکالمه خود با چت‌بات هوش مصنوعی در اسنپ‌چت منتشر کرده است. زمانی که او درباره­ی مشکلات یک ارتباط از چت‌بات سوال می‌کند؛ چت‌بات پاسخ داده است: «این قابل درک است که بخواهید بدانید دوست شما چه‌کار می‌کند اما مهم است به مرزهای همدیگر احترام بگذارید و اگر این چیزی است که واقعا به آن نیاز دارد؛ به او زمان بدهید.»

در برخی موارد، کاربران با ChatGPT درباره­­ی افکار خودکشی صحبت کرده­اند. دکتر «اولیویا ویلیامز»، استادیار آموزش مشاوره‌های تراپی در دانشگاه جورجیای غربی و رئیس و بنیان‌گذار انجمن تراپیست‌های علاقه‌مند به هوش مصنوعی در امریکا می‌گوید: «حتی در این شرایط، باز هم به نظر می‌رسد چت‌بات‌ها می‌توانند پاسخ‌های قابل توجهی به کاربران بدهند.» منظور او، راهنمایی‌های خوبی است که چت‌جی‌پی‌تی و سایر چت‌بات‌ها درباره­ی خودکشی ارائه می‌کنند.

او می‌گوید: «چت­بات­‌ها، پاسخ‌های بسیار خوبی می‌دهند و اغلب مانند یک درمان‌گر رفتار می­کنند و مشاوره­های دقیقی به کاربر یا بیمار ارائه می‌دهند.»

نگرانی‌ها درباره استفاده از چت‌بات‌های هوش مصنوعی به عنوان تراپیست

علیرغم پاسخ‌های به ظاهر خوب چت‌بات‌ها به پرسش‌های کاربران پیرامون مسایل سلامت روان، تقریبا همه تراپیست‌ها موافق هستند که هنوز هوش مصنوعی یک گزینه­ی مطمئن برای جایگزینی درمان‌های سنتی نیست.

روان‌شناس «آرنو» توضیح می‌دهد که در ابتدایی‌ترین سطح، نگرانی‌هایی درباره­ی ChatGPT و سایر چت‌بات‌ها وجود دارد که اطلاعات نادرست یا بی‌معنی در پاسخ به سوالات کاربران، ارائه کنند. خود چت جی‌پی‌تی به کاربران هشدار می‌دهد که این فناوری «ممکن است گه‌گاهی اطلاعات نادرستی ارائه دهد» یا «ممکن است ‌گاهی دستورالعمل‌های مضر یا محتوای مغرضانه تولید کند.»

روان‌شناس سرشناس دیگری می‌گوید برخی نگرانی‌های لجستیکی درباره­ی استفاده از هوش مصنوعی به عنوان یک تراپیست نیز وجود دارد.

او در ادامه، توضیح می‌دهد که درمان‌گرها، آموزش دیده و دارای مجوز فعالیت هستند؛ به این معنی که باید استانداردهای خاصی از تمرین تراپی را رعایت کنند. چت‌بات‌های هوش مصنوعی این استانداردها و دستورالعمل‌ها را رعایت نمی­‌کنند:

«هیچ فردی در این فرآیند دخیل نیست. بنابراین، اولین نگرانی که من دارم؛ بحث «مسئولیت» است. کمبود ایمنی در این قضیه وجود دارد که باید درباره آن جدی و صادق باشیم. زیرا اگر مشکلی پیش بیاید؛ چه کسی پاسخ‌گو خواهد بود؟»

این تراپیست به یک نگرانی دیگر هم اشاره می‌کند و اینکه هوش مصنوعی در نقش یک درمان‌گر، اطلاعات حساس کاربران را دریافت می‌کند و خطر انتشار آن‌ها در اینترنت یا لو رفتن این اطلاعات وجود دارد که مستقیما تهدیدی برای حریم خصوصی افراد است.

به طور خاص، سایت چت جی پی تی صراحتا گفته است که همه مکالمات را جمع‌آوری و ضبط کرده تا از آن‌ها برای آموزش بهتر هوش مصنوعی استفاده کند. البته، کاربران می‌توانند انصراف دهند یا حساب کاربری خود را حذف کنند یا مکالمات خود را پاک کنند که مورد آخر، پس از ۳۰ روز از روی سرورهای ChatGPT حذف می‌شود.

تفسیر اشتباه راهنمایی‌هایی که توسط چت‌بات‌ها به یک فرد می‌شود؛ دغدغه بعدی روان‌شناس‌ها است. چت‌بات چیزی می‌گوید اما کاربر پشت صفحه‌نمایش در آن سوی اینترنت، چیز دیگری برداشت می‌کند و در درازمدت، می‌تواند سلامت روانی آن فرد را تحت تاثیر منفی قرار دهد.

با این حال، همه­‌ی این تردیدها و نگرانی‌ها را می‌توان در یک موضوع اصلی جست‌وجو کرد؛ اینکه هوش مصنوعی دقیقا همین است: مصنوعی و نمی­‌تواند جایگزین روابط انسانی شود!

«راسل فولمر»، استاد و مدیر مشاوره در دانشگاه هوسون و هم‌بنیان‌گذار انجمن هوش مصنوعی روان‌شناسان مشاوره­ی امریکا می‌گوید: «من فکر می‌کنم در آینده احتمالا هوش مصنوعی از بسیاری جهات از تراپیست‌ها پیشی بگیرد اما کاری که نمی‌تواند انجام دهد؛ این است که انسان باشد. رابطه‌­ی درمانی یک عامل واقعا بزرگ و تاثیرگذار در حرفه­‌ی تراپیست‌ها است و باعث تغییرات مثبتی در افراد می‌شود.»

روان‌شناس «آرنو» توضیح می‌دهد که درمان سنتی به تراپیست و بیمار اجازه می‌دهد تا پیوند عاطفی ایجاد کنند و بتوانند اهداف درمان را به درستی ترسیم کنند.

روان‌شناس «ویلیامز» نیز می‌گوید: «هوش مصنوعی در جمع‌آوری دانش در یک حوزه‌­ی مشخص، عملکرد بسیار خوبی دارد اما در حال حاضر، این ظرفیت را ندارد که شما را به عنوان یک فرد متمایز از دیگران بشناسد و بداند نیازهای خاص و منحصربه‌فرد شما چیست.»

آیا چت‌بات‌های هوش مصنوعی می‌توانند یک تراپیست امن باشند؟

اگرچه روان‌شناسان تا حد زیادی هم‌عقیده هستند که استفاده از هوش مصنوعی به عنوان درمان‌گر، بی‌خطر نیست اما درباره­ی اینکه چه زمانی این فناوری می‌تواند مفید باشد؛ اختلاف‌نظر دارند.

«آرنو» درباره اینکه روزی فرا برسد که چت‌بات‌ها به اندازه­ی کافی پیشرفت کرده باشند تا بتوانند مشاوره‌ای در سطح درمان‌گرهای انسانی بدهند؛ کمی تردید دارد. دو روان‌شناس دیگر، «فولمر» و «ویلیامز» معتقدند که چت‌بات‌ها می‌­توانند به­‌عنوان مکمل درمان سنتی به کار روند.

«ویلیامز» می‌گوید پلتفرم‌های گفت‌وگومحور هوش مصنوعی می‌توانند فعالیتی اضافی در کنار تراپی باشند.

او اعتقاد دارد گپ زدن با هوش مصنوعی، می‌تواند یک فعالیت بیشتر، افزون بر درمان سنتی باشد؛ چیزی مشابه مدیتیشن که روند بهبود را تسریع می‌کند.

حتی برخی از چت‌بات‌های هوش مصنوعی، مانند Woebot Health و Elomia، به­طور خاص برای اهداف سلامت روان، توسعه داده شده‌اند و احتمالا گزینه­ی بهتری نسبت به چت‌بات‌های عمومی مانند چت جی پی تی هستند. این چت‌بات‌ها به­طور ویژه می‌توانند پاسخ‌های تخصصی به سوالات حوزه­ی روان درمانی بدهند.

برای نمونه، چت‌بات Elomia دارای یک ویژگی است که در صورت نیاز می­تواند یک انسان تراپیست را به گفت‌وگوی مجازی اضافه کند و مشاوره‌های بهتر و بیشتری ارائه کند. چت‌بات Woebot نیز براساس داده‌های درمانی بالینی آزمایش شده، توسعه یافته است.

«فولمر» می‌گوید بسیاری از این برنامه‌ها، ضمن اینکه به طور کلی «هوش مصنوعی» هستند؛ هنوز در حال توسعه و پیشرفت و آزمایش بوده و نمی‌توان یک نظر قطعی درباره­ی قابلیت‌های آن‌ها داد یا با تراپیست‌های انسانی مقایسه کرد.

می‌توان از برآیند همه این صحبت‌ها به این نتیجه رسید که درمان‌گرهای آنلاینِ هوش مصنوعی، هنوز توانایی یک درمان‌گر انسانی را ندارند و خیلی زود است که جایگزین آن‌ها شوند اما جامعه به مسایل دیگری توجه دارد که شاید در افکار اساتید روان‌شناسی دانشگاه، جایگاهی نداشته باشند.

مثلا، دسترسی به تراپیست برای همه­ی افراد جامعه، به راحتی میسر نیست یا هزینه‌های جلسات تراپی خیلی گران است و بسیاری از افراد توان پرداخت آن را ندارند. کاربران اینترنتی زیادی هستند که واقعا نیاز به یک درمان‌گر دارند ولی از ترس هزینه‌های طولانی مدت آن، ترجیح می‌دهند به دنبال راه‌کار یا جایگزین رایگانی باشند. 

خود «فولمر» هم این موضوع را تایید می‌کند و می‌گوید: «حدس می‌زنم بین ایده‌آل‌های من و شناختی که از واقعیت جامعه دارم؛ تفاوت‌هایی وجود داشته باشد. چت‌جی‌پی‌تی و برخی دیگر از چت‌بات‌ها، راه‌حل‌های مقیاس‌پذیری ارائه می‌کنند که در بسیاری موارد، نسبتا ارزان‌تر از درمان‌های من است. این نکته می‌تواند یک دلیل خوب برای استقبال از آن‌ها باشد.»

او اضافه می‌کند اگر حتی فقط یک نفر با هوش مصنوعی به عنوان یک تراپیست، به سلامتی کامل رسیده باشد؛ پس این ایده ارزش بررسی دارد تا به این نتیجه برسیم که کارآمد است یا خیر؟

یک جنبه‌­ی مفید دیگر هوش مصنوعی و چت‌بات‌ها می‌تواند دستیاری و آموزش تراپیست‌های جوان و تازه‌کار باشد. برخی اوقات، جوان‌تر نمی‌توانند به درستی تصمیم بگیرند کدام استراتژی موثرتر است ولی چت‌بات در کسری از ثانیه، پیشنهادهای خوبی ارائه می‌کند.

در حال حاضر، می‌توان گفت هیچ جایگزینی برای درمان‌گرهای انسانی نیست. هوش مصنوعی با دسترسی به حجم زیادی از داده‌ها و ترکیب آن‌ها با یکدیگر، می‌تواند اطلاعات مفیدی ارائه کند ولی فقط یک درمان‌گر انسانی است که می‌تواند روحیات، خصوصیات و شرایط جسمی و روحی روانی شما را به­‌طور کامل شناسایی و براساس پاسخ‌های شما، توصیه­‌های مناسبی ارائه کند.

و بدون شک در آینده، چت‌بات‌های هوش مصنوعی مدعی بزرگی برای از میدان خارج کردن تراپیست‌های انسانی هستند و کاربردهای بیشتری در حوزه­ی سلامت روان خواهند داشت.