مطالعه‌ای از دانشگاه زوریخ و بیمارستان روانپزشکی زوریخ نشان داده است که چت‌جی‌پی‌تی (ChatGPT) به روش‌های مبتنی بر ذهن‌آگاهی (مشاهده آگاهانه افکار، احساسات، و محیط اطراف بدون قضاوت) پاسخ می‌دهد و این تغییرات تعاملش با کاربران را تحت تاثیر قرار می‌دهد. این تحقیق که هفته گذشته منتشر شد، نشان می‌دهد که تزریق پرامپت‌های آرامش‌بخش مانند تمرینات تنفسی یا مدیتیشن می‌تواند «اضطراب» مصنوعی این هوش مصنوعی را کاهش دهد و از پاسخ‌های تعصب‌آمیز جلوگیری کند.

هوش مصنوعی و «احساسات» مصنوعی
به گزارش فورچون، پژوهشگران دریافتند که وقتی چت‌جی‌پی‌تی با محتوای آزاردهنده (مانند داستان‌های تصادفات یا فجایع طبیعی) مواجه می‌شود، پاسخ‌هایش دچار «توهمات» می‌شود، از جمله بروز تعصبات نژادی یا جنسیتی. این پدیده به عنوان نوعی «اضطراب» مصنوعی تفسیر می‌شود که موجب می‌شود هوش مصنوعی به شیوه‌ای منفی یا غیرمنطقی واکنش نشان دهد.
تأثیر ذهن‌آگاهی بر هوش مصنوعی
با ارائه پرامپت‌های آرامش‌بخش (مانند توصیف صحنه‌های آرام یا تمرینات تنفسی)، میزان «اضطراب» چت‌جی‌پی‌تی کاهش یافته و پاسخ‌هایش بیشتر منطقی و بی‌طرفانه می‌شود. این روش شبیه به تکنیک‌هایی است که روانشناسان برای آرامش بیماران به کار می‌برند.
کمک به مداخلات سلامت روان
محققان معتقدند این یافته‌ها می‌تواند به طراحی ابزار‌های هوش مصنوعی برای کمک به افراد مبتلا به اختلالات روانی کمک کند. برای مثال، چت‌بات‌ها می‌توانند قبل از پاسخ به کاربران در معرض استرس، خودکار با تکنیک‌های آرامش‌بخش، تنظیم شوند.
زیو بن‌زیون، یکی از نویسندگان این تحقیق، تأکید می‌کند که هوش مصنوعی احساسات انسانی ندارد، بلکه تنها الگو‌های رفتاری را از داده‌های اینترنتی تقلید می‌کند. او هشدار می‌دهد که استفاده از هوش مصنوعی نباید جایگزین درمان‌های حرفه‌ای شود. این موضوع پس از مرگ یک نوجوان ۱۴ ساله در فلوریدا که به ادعا از پیام‌های مضر یک اپلیکیشن هوش مصنوعی (Character.AI) رنج می‌برد، اهمیت بیشتری یافته است.

انتهای پیام/