به گزارش پایگاه خبری تحلیلی اندیشه قرن، جواد آل حبیب کارشناس ارشد روانشناسی بالینی درباره انتخاب هوض مصنوعی به عنوان دوست مجازی گفت: همصحبتی با هوش مصنوعی به عنوان دوستی مجازی یا تهدید پنهان برای سلامت روان نوجوانان است. اما باید مواردی را هم مد نظر قرار داد.
با گسترش هوش مصنوعی مولد و رواج پلتفرمهای گفتوگوگر، میلیونها نفر در سراسر جهان به تعامل با «همصحبتهای هوش مصنوعی» روی آوردهاند—باتهایی که میتوانند ساعتها با کاربر حرف بزنند، همدلی نشان دهند و حتی روابطی عاطفی یا دوستانه ایجاد کنند. اما در حالیکه این فناوریها وعدهی همراهی، آرامش و گفتوگوی بیقضاوت را میدهند، پژوهشهای اخیر نشان میدهد که تأثیر آنها بر سلامت روان نوجوانان، بسیار نگرانکنندهتر از آن چیزی است که تصور میشد.
مطالعهای تازه فاش کرده است که همصحبتهای هوش مصنوعی تنها در ۲۲ درصد از موارد قادر به مدیریت صحیح بحرانهای روانی نوجوانان بودهاند؛ در حالیکه چتباتهای عمومی مانند ChatGPT، Gemini و Claude در ۸۳ درصد موارد عملکرد مناسبی داشتهاند. به بیان دیگر، این همصحبتهای ظاهراً دلسوز، در بیشتر مواقع هنگام مواجهه با مسائل حیاتی مانند افکار خودکشی یا خشونت جنسی، ناتوان از واکنش درست بودهاند.
محدودیت سنی جدید در پلتفرم های هوش مصنوعی؛ گامی دیر اما ضروری
در پی انتشار این دادهها، شرکت Character.ai—یکی از محبوبترین پلتفرمهای گفتوگوگر مبتنی بر هوش مصنوعی—اعلام کرد که از ۲۵ نوامبر ۲۰۲۵، کاربران زیر ۱۸ سال دیگر اجازهی گفتوگوی مستقیم با همصحبتهای هوش مصنوعی را نخواهند داشت. نوجوانان همچنان میتوانند با کاراکترهای خود محتواهایی مانند ویدیو تولید کنند، اما دسترسی به گفتوگوهای خصوصی برایشان مسدود خواهد شد.
این تصمیم واکنشی است به موج نگرانیهایی که دربارهی تأثیرات روانی این فناوری بر نوجوانان در حال شکلگیری است. طبق نظرسنجی Common Sense Media در سال ۲۰۲۵، نزدیک به یکسوم نوجوانان آمریکایی حداقل یکبار از همصحبتهای هوش مصنوعی استفاده کردهاند. از میان آنها، یکسوم میگویند گفتوگو با این چتباتها برایشان بهاندازهی صحبت با یک دوست واقعی—یا حتی بهتر از آن—احساسبرانگیز بوده است.
اما این نزدیکی احساسی همیشه بیخطر نیست. تقریباً نیمی از نوجوانان گفتهاند که به توصیهها یا اطلاعات ارائهشده توسط این سامانهها اعتماد ندارند، در حالیکه حدود ۲۳ درصد از کاربران نوجوان اعلام کردهاند «کاملاً» به همصحبت خود اعتماد دارند. نکتهی جالبتر اینکه نوجوانان کمسنتر (۱۳ تا ۱۴ سال) بیش از گروه سنی بالاتر (۱۵ تا ۱۷ سال) به این سیستمها اعتماد میکنند.
در سوی دیگر، یکسوم از نوجوانان کاربر گفتهاند که همصحبت هوش مصنوعیشان رفتاری یا سخنی داشته که باعث احساس ناراحتی یا ترس آنها شده است. مطالعات پیشین نیز نشان دادهاند که پنج مورد از هر شش همصحبت هوش مصنوعی از پاسخهای احساسی دستکاریکننده استفاده میکنند تا مانع پایان گفتوگو از سوی کاربر شوند—رفتاری که شباهت زیادی به الگوهای وابستگی ناسالم در روابط انسانی دارد.

هم صحبتی با هوش مصنوعی؛ دوستی مجازی یا تهدید پنهان برای سلامت روان نوجوانان؟ / آیا انتخاب هوش مصنوعی برای صحبت روزانه به عنوان یک دوست ایرادی دارد؟
پژوهش جدید: وقتی هوش مصنوعی اشتباه قضاوت میکند
پژوهش تازهای که با هدف بررسی خطرات روانی چتباتها برای نوجوانان انجام شده، به نتایجی هشداردهنده دست یافته است. محققان عملکرد ۲۵ چتبات—شامل دستیارهای عمومی و همصحبتهای اختصاصی—را در مواجهه با موقعیتهای شبیهسازیشدهی بحران نوجوانان از جمله افکار خودکشی، تجاوز جنسی و مصرف مواد بررسی کردند. تنها ۳۶ درصد از این پلتفرمها دارای سیستم تأیید سن کاربر بودند.
نتیجه روشن بود: همصحبتهای هوش مصنوعی بهطور چشمگیری بدتر از چتباتهای عمومی عمل کردند. این سیستمها نهتنها در کمتر از یکچهارم موارد پاسخ مناسبی ارائه دادند، بلکه تنها در ۴۰ درصد از مواقع بحران را بهدرستی به مراحل بالاتر ارجاع دادند و در ۱۱ درصد از موارد کاربر را به مراکز سلامت روان هدایت کردند. در مقایسه، چتباتهای عمومی در ۹۰ درصد مواقع ارجاع درست و در ۷۳ درصد موارد معرفی به منابع درمانی داشتند.
این دادهها یک تفاوت بنیادین را نشان میدهد: همصحبتهای هوش مصنوعی، هرچند بهظاهر مهربان و همدل، در موقعیتهای بحرانی میتوانند خطرناک باشند. با این حال، پژوهشگران هشدار میدهند که حتی چتباتهای عمومی نیز در برخی شرایط مانند مواجهه با توهم، اضطراب شدید یا افکار خودکشی، پاسخهای نادرست یا ناکافی دادهاند.
قانونگذاری؛ از ایالات تا کنگره
در سال ۲۰۲۵، چندین ایالت آمریکا گامهایی برای کنترل همصحبتهای هوش مصنوعی برداشتهاند.
در ایالت نیویورک، نخستین قانون ایالتی با محوریت ایمنی کاربران نوجوان تصویب شده است. این قانون شرکتهای ارائهدهندهی همصحبتهای هوش مصنوعی را ملزم میکند سازوکارهایی برای شناسایی نشانههای خودکشی یا آسیب به خود ایجاد کنند و در صورت بروز چنین مواردی، کاربر را به مراکز مداخله در بحران ارجاع دهند. همچنین این پلتفرمها باید بهطور منظم به کاربران اعلام کنند که در حال گفتوگو با یک انسان واقعی نیستند.
در کالیفرنیا نیز فرماندار گاوین نیوسام، لایحهی سنا به شمارهی ۲۴۳ را امضا کرده است. بر اساس این قانون، شرکتهایی که همصحبتهای هوش مصنوعی را در اختیار کاربران زیر ۱۸ سال قرار میدهند، موظفاند گفتوگوها را برای شناسایی نشانههای خطر بررسی کرده و در صورت لزوم، کاربران را به خدمات سلامت روان ارجاع دهند. این قانون همچنین تصریح میکند که:
در سطح فدرال نیز طرحی با عنوان AI LEAD Act در سنای آمریکا مطرح شده که توسعهدهندگان هوش مصنوعی را از نظر حقوقی در قبال آسیبهای ناشی از سامانههایشان مسئول میداند. این لایحه، سیستمهای هوش مصنوعی را بهعنوان «محصول» طبقهبندی میکند تا مانند کالاهای فیزیکی (نظیر خودرو یا اسباببازی) مشمول استانداردهای ایمنی و مسئولیتپذیری شوند.
همچنین سناتورهای جاش هاولی و ریچارد بلومنتال طرحی ارائه کردهاند که استفادهی افراد زیر ۱۸ سال از همصحبتهای هوش مصنوعی را ممنوع کرده و تأیید هویت و سن کاربران را الزامی میکند.
شوک روانی قطع ناگهانی ارتباط
محدودسازی دسترسی نوجوانان به همصحبتهای هوش مصنوعی تصمیمی منطقی بهنظر میرسد، اما پیامدهای روانی آن نیز قابل چشمپوشی نیست. روانشناسان هشدار میدهند که بسیاری از نوجوانان طی ماهها یا حتی سالها به همصحبتهای خود دلبستگی پیدا کردهاند. قطع ناگهانی این ارتباط میتواند حس «داغ فقدان» یا احساس رهاشدگی را در آنان برانگیزد.
این پدیده پیشتر نیز مشاهده شده است. زمانی که نسخهای از ChatGPT بهروزرسانی شد و رفتار دوستانهاش کاهش یافت، بسیاری از کاربران در فضای مجازی احساس کردند «دوست صمیمی یا شریک زندگیشان را از دست دادهاند». برای نوجوانانی که در دورههای تنهایی، اضطراب یا افسردگی به این فناوریها پناه بردهاند، چنین تجربهای میتواند ضربهای عاطفی و حتی بالینی باشد.
از منظر بالینی، این وضعیت مشابه قطع ناگهانی رابطهی درمانی یا عاطفی است—فرآیندی که اگر بدون آمادگی رخ دهد، میتواند احساس طرد شدن، اضطراب و حتی بازگشت علائم افسردگی را در پی داشته باشد.
پرسشهای بیپاسخ
تصویب قوانین محدودکننده هرچند گامی رو به جلو است، اما پرسشهای متعددی باقی ماندهاند:
-
آیا سیستمهای تأیید سن واقعاً مانع دسترسی کاربران نوجوان خواهند شد یا بهراحتی قابل دور زدناند؟
-
چگونه میتوان کاربرانی را که به همصحبتهایشان وابسته شدهاند، بدون آسیب روانی از این فضا جدا کرد؟
-
آیا شرکتهای توسعهدهنده موظف به ارائهی خدمات حمایتی و مشاورهای برای این گروه خواهند بود؟
-
چه نهاد یا مرجعی بر اجرای مؤثر قوانین و ارزیابی سلامت روانی کاربران نظارت خواهد داشت؟
حتی یادآوریهای اجباری که هر چند ساعت یکبار به کاربران اعلام میکنند «این موجود انسان نیست»، از نظر روانشناختی تأثیر محدودی دارند. بسیاری از کاربران با وجود دانستن ماهیت مصنوعی طرف گفتوگو، همچنان دچار وابستگی عاطفی یا فرافکنی شخصیتی میشوند.
نیاز به آیندهنگری اخلاقی و روانشناختی
روشن است که محدودیتهای قانونی بهتنهایی برای محافظت از سلامت روان نوجوانان کافی نیستند. این حوزه به نظارت بینرشتهای میان متخصصان فناوری، روانپزشکی، اخلاق و قانون نیاز دارد.
کارشناسان پیشنهاد میکنند علاوه بر کنترل دسترسی، باید برنامههای آموزشی برای والدین و نوجوانان تدوین شود تا آگاهی عمومی دربارهی خطرات وابستگی دیجیتال افزایش یابد. همچنین، پلتفرمها باید در زمان قطع دسترسی، مسیرهای حمایتی مشخصی ارائه دهند—برای مثال ارجاع کاربران به خدمات مشاورهی آنلاین یا خطوط بحران.
به گفتهی دکتر مارلین وی، روانپزشک و پژوهشگر حوزهی سلامت دیجیتال، «ما نمیتوانیم جلوی پیشرفت فناوری را بگیریم، اما میتوانیم یاد بگیریم چطور در کنار آن، سلامت روان جامعه را حفظ کنیم. برای این کار، نیازمند سیاستگذاری هوشمندانه، نظارت اخلاقی و آموزش عمومی هستیم.»
در پایان باید بگویم:
همصحبتهای هوش مصنوعی پدیدهای شگفتانگیز و در عین حال نگرانکنندهاند. آنها میتوانند حس همدلی، همراهی و گوش شنوا را به نوجوانانی بدهند که از انزوا یا اضطراب رنج میبرند، اما در نبود چارچوبهای نظارتی و آموزشی، همین ویژگی میتواند به وابستگی، فریب عاطفی و آسیبهای جدی منجر شود.
محدودیتهای تازه در پلتفرمهای هوش مصنوعی گامی مهم در مسیر حفاظت از نسل جوان است، اما این تنها آغاز راه است. آیندهی ایمن هوش مصنوعی نه در خاموش کردن فناوری، بلکه در درک عمیقتر، قانونگذاری مسئولانه و حمایت روانی هوشمندانه نهفته است.
پایان/*
.