آیا GPT Chat می‌تواند به روان درمانی کمک کند؟

یکی از مقامات شرکت هوش مصنوعی OpenAI اخیرا با این اظهار نظر که GPT Chat می‌تواند به روان درمانی کمک کند، انتقادات زیادی را برانگیخت.

یلیان وونگ، مسئول مسائل امنیتی هوش مصنوعی OpenAI در اواخر سپتامبر در‌ حساب خود در X نوشت: من یک گفت و گوی بسیار شخصی و احساسی با GPT Chat از طریق صدا، در مورد استرس و تعادل بین کار و زندگی داشتم.

او اضافه کرد: جالب است که احساس می‌کردم شنیده می‌شوم و احساس آرامش می‌کنم. من قبلاً هرگز این گونه درمان را امتحان نکرده بودم، آیا روان درمانی واقعا چنین است؟

وونگ در درجه اول به دنبال برجسته کردن عملکرد جدید تنظیم صدای پولی چت بات بود که حدود یک سال پیش معرفی شد و به دنبال یک مدل اقتصادی است.

اما شر اسکارلت، فعال آمریکایی، به شدت به این اظهارات واکنش نشان داد و گفت که روانشناسی هدفش بهبود سلامت روان بوده و کار سختی است. این که انسان احساسات مثبت برای خود ایجاد کند خوب است، اما این ربطی به درمان ندارد.

اما آیا واقعا تعامل با هوش مصنوعی می‌تواند تجربه مثبتی را که لیلیان ونگ توصیف کرده است، ایجاد کند؟

بر اساس مطالعه‌ای که چند روز پیش در مجله علمی Nature Machine Intelligence منتشر شد، این پدیده را می‌توان با اثر دارونما توضیح داد.

برای اثبات این موضوع، محققان مؤسسه فناوری ماساچوست و دانشگاه آریزونا نظرات ۳۰۰ شرکت‌کننده را مورد بررسی قرار دادند و توضیح دادند که چت بات با برخی همدلی می‌کند، برخی دیگر را به بازی می‌گیرد و با گروه سوم رفتار متعادلی دارد.

در نتیجه، کسانی که معتقد بودند با دستیاری مجازی صحبت می‌کنند که می‌تواند با آن‌ها همدردی کند، این همکار خود را قابل اعتماد می‌دانند.

پت پاتارانتاپورن یکی از نویسندگان این مطالعه گفت: ما دریافتیم که به هوش مصنوعی به نوعی بر اساس پیش فرض‌های کاربر توجه می‌شود.

حماقت ربات‌ها

بسیاری از شرکت‌های استارت‌آپ بدون انجام اقدامات احتیاطی زیادی در زمینه‌ای که هنوز حساس است، شروع به توسعه اپلیکیشن‌هایی کرده‌اند که قرار است نوعی از کمک به سلامت روان را ارائه دهند که جنجال‌های مختلفی را به همراه داشته است.

کاربران Replica، اپلیکیشنی که به ارائه مزایای سلامت روان معروف است، به ویژه از این که هوش مصنوعی ممکن است دچار دستکاری شود، شکایت کرده اند.

سازمان غیردولتی آمریکایی کوکو که در ماه فوریه آزمایشی را بر روی ۴۰۰۰ بیمار با استفاده از مدل هوش مصنوعی GPT-۳ انجام داده بود نیز اذعان کرد که پاسخ‌های خودکار در درمان موفقیت آمیز نبودند.

راب موریس، یکی از بنیانگذاران این شرکت در x نوشت: شبیه‌سازی همدلی، عجیب و بی‌معنی به نظر می‌رسد. این مشاهدات منعکس کننده نتایج یک مطالعه قبلی در مورد اثر دارونما است، به گونه‌ای که برخی از شرکت‌کنندگان احساس می‌کردند دارند با دیوار صحبت می‌کنند.

منبع: ۲۴.ae

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
نظرات کاربران
انتشار یافته: ۱
در انتظار بررسی: ۰
Iran (Islamic Republic of)
پیمان اشراقی
۱۱:۴۷ ۱۸ مهر ۱۴۰۲
سلام،

اگر منبع هایی که با آن یادگیری روانشناسی را انجام داده خوب باشد بله.
آخرین اخبار