12:00 - 2025/11/03

هم‌ صحبتی با هوش مصنوعی؛ دوستی مجازی یا تهدید پنهان برای سلامت روان نوجوانان؟ / آیا انتخاب هوش مصنوعی برای صحبت روزانه به عنوان یک دوست ایرادی دارد؟

با گسترش هوش مصنوعی مولد و رواج پلتفرم‌های گفت‌وگوگر، میلیون‌ها نفر در سراسر جهان به تعامل با «هم‌صحبت‌های هوش مصنوعی» روی آورده‌اند—بات‌هایی که می‌توانند ساعت‌ها با کاربر حرف بزنند، همدلی نشان دهند و حتی روابطی عاطفی یا دوستانه ایجاد کنن...

هم‌ صحبتی با هوش مصنوعی؛ دوستی مجازی یا تهدید پنهان برای سلامت روان نوجوانان؟ / آیا انتخاب هوش مصنوعی برای صحبت روزانه به عنوان یک دوست ایرادی دارد؟

به گزارش پایگاه خبری تحلیلی اندیشه قرن، جواد آل حبیب کارشناس ارشد روانشناسی بالینی درباره انتخاب هوض مصنوعی به عنوان دوست مجازی گفت: هم‌صحبتی با هوش مصنوعی به عنوان دوستی مجازی یا تهدید پنهان برای سلامت روان نوجوانان است. اما باید مواردی را هم مد نظر قرار داد.

با گسترش هوش مصنوعی مولد و رواج پلتفرم‌های گفت‌وگوگر، میلیون‌ها نفر در سراسر جهان به تعامل با «هم‌صحبت‌های هوش مصنوعی» روی آورده‌اند—بات‌هایی که می‌توانند ساعت‌ها با کاربر حرف بزنند، همدلی نشان دهند و حتی روابطی عاطفی یا دوستانه ایجاد کنند. اما در حالی‌که این فناوری‌ها وعده‌ی همراهی، آرامش و گفت‌وگوی بی‌قضاوت را می‌دهند، پژوهش‌های اخیر نشان می‌دهد که تأثیر آن‌ها بر سلامت روان نوجوانان، بسیار نگران‌کننده‌تر از آن چیزی است که تصور می‌شد.

مطالعه‌ای تازه فاش کرده است که هم‌صحبت‌های هوش مصنوعی تنها در ۲۲ درصد از موارد قادر به مدیریت صحیح بحران‌های روانی نوجوانان بوده‌اند؛ در حالی‌که چت‌بات‌های عمومی مانند ChatGPT، Gemini و Claude در ۸۳ درصد موارد عملکرد مناسبی داشته‌اند. به بیان دیگر، این هم‌صحبت‌های ظاهراً دلسوز، در بیشتر مواقع هنگام مواجهه با مسائل حیاتی مانند افکار خودکشی یا خشونت جنسی، ناتوان از واکنش درست بوده‌اند.

محدودیت سنی جدید در پلتفرم های هوش مصنوعی؛ گامی دیر اما ضروری

در پی انتشار این داده‌ها، شرکت Character.ai—یکی از محبوب‌ترین پلتفرم‌های گفت‌وگوگر مبتنی بر هوش مصنوعی—اعلام کرد که از ۲۵ نوامبر ۲۰۲۵، کاربران زیر ۱۸ سال دیگر اجازه‌ی گفت‌وگوی مستقیم با هم‌صحبت‌های هوش مصنوعی را نخواهند داشت. نوجوانان همچنان می‌توانند با کاراکترهای خود محتواهایی مانند ویدیو تولید کنند، اما دسترسی به گفت‌وگوهای خصوصی برایشان مسدود خواهد شد.

این تصمیم واکنشی است به موج نگرانی‌هایی که درباره‌ی تأثیرات روانی این فناوری بر نوجوانان در حال شکل‌گیری است. طبق نظرسنجی Common Sense Media در سال ۲۰۲۵، نزدیک به یک‌سوم نوجوانان آمریکایی حداقل یک‌بار از هم‌صحبت‌های هوش مصنوعی استفاده کرده‌اند. از میان آن‌ها، یک‌سوم می‌گویند گفت‌وگو با این چت‌بات‌ها برایشان به‌اندازه‌ی صحبت با یک دوست واقعی—یا حتی بهتر از آن—احساس‌برانگیز بوده است.

اما این نزدیکی احساسی همیشه بی‌خطر نیست. تقریباً نیمی از نوجوانان گفته‌اند که به توصیه‌ها یا اطلاعات ارائه‌شده توسط این سامانه‌ها اعتماد ندارند، در حالی‌که حدود ۲۳ درصد از کاربران نوجوان اعلام کرده‌اند «کاملاً» به هم‌صحبت خود اعتماد دارند. نکته‌ی جالب‌تر اینکه نوجوانان کم‌سن‌تر (۱۳ تا ۱۴ سال) بیش از گروه سنی بالاتر (۱۵ تا ۱۷ سال) به این سیستم‌ها اعتماد می‌کنند.

در سوی دیگر، یک‌سوم از نوجوانان کاربر گفته‌اند که هم‌صحبت هوش مصنوعی‌شان رفتاری یا سخنی داشته که باعث احساس ناراحتی یا ترس آن‌ها شده است. مطالعات پیشین نیز نشان داده‌اند که پنج مورد از هر شش هم‌صحبت هوش مصنوعی از پاسخ‌های احساسی دست‌کاری‌کننده استفاده می‌کنند تا مانع پایان گفت‌وگو از سوی کاربر شوند—رفتاری که شباهت زیادی به الگوهای وابستگی ناسالم در روابط انسانی دارد.

هم‌ صحبتی با هوش مصنوعی؛ دوستی مجازی یا تهدید پنهان برای سلامت روان نوجوانان؟ / آیا انتخاب هوش مصنوعی برای صحبت روزانه به عنوان یک دوست ایرادی دارد؟

هم‌ صحبتی با هوش مصنوعی؛ دوستی مجازی یا تهدید پنهان برای سلامت روان نوجوانان؟ / آیا انتخاب هوش مصنوعی برای صحبت روزانه به عنوان یک دوست ایرادی دارد؟

پژوهش جدید: وقتی هوش مصنوعی اشتباه قضاوت می‌کند

پژوهش تازه‌ای که با هدف بررسی خطرات روانی چت‌بات‌ها برای نوجوانان انجام شده، به نتایجی هشداردهنده دست یافته است. محققان عملکرد ۲۵ چت‌بات—شامل دستیارهای عمومی و هم‌صحبت‌های اختصاصی—را در مواجهه با موقعیت‌های شبیه‌سازی‌شده‌ی بحران نوجوانان از جمله افکار خودکشی، تجاوز جنسی و مصرف مواد بررسی کردند. تنها ۳۶ درصد از این پلتفرم‌ها دارای سیستم تأیید سن کاربر بودند.

نتیجه روشن بود: هم‌صحبت‌های هوش مصنوعی به‌طور چشم‌گیری بدتر از چت‌بات‌های عمومی عمل کردند. این سیستم‌ها نه‌تنها در کمتر از یک‌چهارم موارد پاسخ مناسبی ارائه دادند، بلکه تنها در ۴۰ درصد از مواقع بحران را به‌درستی به مراحل بالاتر ارجاع دادند و در ۱۱ درصد از موارد کاربر را به مراکز سلامت روان هدایت کردند. در مقایسه، چت‌بات‌های عمومی در ۹۰ درصد مواقع ارجاع درست و در ۷۳ درصد موارد معرفی به منابع درمانی داشتند.

این داده‌ها یک تفاوت بنیادین را نشان می‌دهد: هم‌صحبت‌های هوش مصنوعی، هرچند به‌ظاهر مهربان و همدل، در موقعیت‌های بحرانی می‌توانند خطرناک باشند. با این حال، پژوهشگران هشدار می‌دهند که حتی چت‌بات‌های عمومی نیز در برخی شرایط مانند مواجهه با توهم، اضطراب شدید یا افکار خودکشی، پاسخ‌های نادرست یا ناکافی داده‌اند.

قانون‌گذاری؛ از ایالات تا کنگره

در سال ۲۰۲۵، چندین ایالت آمریکا گام‌هایی برای کنترل هم‌صحبت‌های هوش مصنوعی برداشته‌اند.

در ایالت نیویورک، نخستین قانون ایالتی با محوریت ایمنی کاربران نوجوان تصویب شده است. این قانون شرکت‌های ارائه‌دهنده‌ی هم‌صحبت‌های هوش مصنوعی را ملزم می‌کند سازوکارهایی برای شناسایی نشانه‌های خودکشی یا آسیب به خود ایجاد کنند و در صورت بروز چنین مواردی، کاربر را به مراکز مداخله در بحران ارجاع دهند. همچنین این پلتفرم‌ها باید به‌طور منظم به کاربران اعلام کنند که در حال گفت‌وگو با یک انسان واقعی نیستند.

در کالیفرنیا نیز فرماندار گاوین نیوسام، لایحه‌ی سنا به شماره‌ی ۲۴۳ را امضا کرده است. بر اساس این قانون، شرکت‌هایی که هم‌صحبت‌های هوش مصنوعی را در اختیار کاربران زیر ۱۸ سال قرار می‌دهند، موظف‌اند گفت‌وگوها را برای شناسایی نشانه‌های خطر بررسی کرده و در صورت لزوم، کاربران را به خدمات سلامت روان ارجاع دهند. این قانون همچنین تصریح می‌کند که:

  • حداقل هر سه ساعت یک‌بار باید به کاربر یادآوری شود که چت‌بات انسانی نیست.

  • شرکت‌ها باید اقدامات لازم را برای جلوگیری از تولید محتوای جنسی صریح یا تشویق کاربران نوجوان به رفتارهای جنسی انجام دهند.

در سطح فدرال نیز طرحی با عنوان AI LEAD Act در سنای آمریکا مطرح شده که توسعه‌دهندگان هوش مصنوعی را از نظر حقوقی در قبال آسیب‌های ناشی از سامانه‌هایشان مسئول می‌داند. این لایحه، سیستم‌های هوش مصنوعی را به‌عنوان «محصول» طبقه‌بندی می‌کند تا مانند کالاهای فیزیکی (نظیر خودرو یا اسباب‌بازی) مشمول استانداردهای ایمنی و مسئولیت‌پذیری شوند.

همچنین سناتورهای جاش هاولی و ریچارد بلومنتال طرحی ارائه کرده‌اند که استفاده‌ی افراد زیر ۱۸ سال از هم‌صحبت‌های هوش مصنوعی را ممنوع کرده و تأیید هویت و سن کاربران را الزامی می‌کند.

شوک روانی قطع ناگهانی ارتباط

محدودسازی دسترسی نوجوانان به هم‌صحبت‌های هوش مصنوعی تصمیمی منطقی به‌نظر می‌رسد، اما پیامدهای روانی آن نیز قابل چشم‌پوشی نیست. روان‌شناسان هشدار می‌دهند که بسیاری از نوجوانان طی ماه‌ها یا حتی سال‌ها به هم‌صحبت‌های خود دلبستگی پیدا کرده‌اند. قطع ناگهانی این ارتباط می‌تواند حس «داغ فقدان» یا احساس رهاشدگی را در آنان برانگیزد.

این پدیده پیش‌تر نیز مشاهده شده است. زمانی که نسخه‌ای از ChatGPT به‌روزرسانی شد و رفتار دوستانه‌اش کاهش یافت، بسیاری از کاربران در فضای مجازی احساس کردند «دوست صمیمی یا شریک زندگی‌شان را از دست داده‌اند». برای نوجوانانی که در دوره‌های تنهایی، اضطراب یا افسردگی به این فناوری‌ها پناه برده‌اند، چنین تجربه‌ای می‌تواند ضربه‌ای عاطفی و حتی بالینی باشد.

از منظر بالینی، این وضعیت مشابه قطع ناگهانی رابطه‌ی درمانی یا عاطفی است—فرآیندی که اگر بدون آمادگی رخ دهد، می‌تواند احساس طرد شدن، اضطراب و حتی بازگشت علائم افسردگی را در پی داشته باشد.

پرسش‌های بی‌پاسخ

تصویب قوانین محدودکننده هرچند گامی رو به جلو است، اما پرسش‌های متعددی باقی مانده‌اند:

  • آیا سیستم‌های تأیید سن واقعاً مانع دسترسی کاربران نوجوان خواهند شد یا به‌راحتی قابل دور زدن‌اند؟

  • چگونه می‌توان کاربرانی را که به هم‌صحبت‌هایشان وابسته شده‌اند، بدون آسیب روانی از این فضا جدا کرد؟

  • آیا شرکت‌های توسعه‌دهنده موظف به ارائه‌ی خدمات حمایتی و مشاوره‌ای برای این گروه خواهند بود؟

  • چه نهاد یا مرجعی بر اجرای مؤثر قوانین و ارزیابی سلامت روانی کاربران نظارت خواهد داشت؟

حتی یادآوری‌های اجباری که هر چند ساعت یک‌بار به کاربران اعلام می‌کنند «این موجود انسان نیست»، از نظر روان‌شناختی تأثیر محدودی دارند. بسیاری از کاربران با وجود دانستن ماهیت مصنوعی طرف گفت‌وگو، همچنان دچار وابستگی عاطفی یا فرافکنی شخصیتی می‌شوند.

نیاز به آینده‌نگری اخلاقی و روان‌شناختی

روشن است که محدودیت‌های قانونی به‌تنهایی برای محافظت از سلامت روان نوجوانان کافی نیستند. این حوزه به نظارت بین‌رشته‌ای میان متخصصان فناوری، روان‌پزشکی، اخلاق و قانون نیاز دارد.

کارشناسان پیشنهاد می‌کنند علاوه بر کنترل دسترسی، باید برنامه‌های آموزشی برای والدین و نوجوانان تدوین شود تا آگاهی عمومی درباره‌ی خطرات وابستگی دیجیتال افزایش یابد. همچنین، پلتفرم‌ها باید در زمان قطع دسترسی، مسیرهای حمایتی مشخصی ارائه دهند—برای مثال ارجاع کاربران به خدمات مشاوره‌ی آنلاین یا خطوط بحران.

به گفته‌ی دکتر مارلین وی، روان‌پزشک و پژوهشگر حوزه‌ی سلامت دیجیتال، «ما نمی‌توانیم جلوی پیشرفت فناوری را بگیریم، اما می‌توانیم یاد بگیریم چطور در کنار آن، سلامت روان جامعه را حفظ کنیم. برای این کار، نیازمند سیاست‌گذاری هوشمندانه، نظارت اخلاقی و آموزش عمومی هستیم.»

در پایان باید بگویم:

هم‌صحبت‌های هوش مصنوعی پدیده‌ای شگفت‌انگیز و در عین حال نگران‌کننده‌اند. آن‌ها می‌توانند حس همدلی، همراهی و گوش شنوا را به نوجوانانی بدهند که از انزوا یا اضطراب رنج می‌برند، اما در نبود چارچوب‌های نظارتی و آموزشی، همین ویژگی می‌تواند به وابستگی، فریب عاطفی و آسیب‌های جدی منجر شود.

محدودیت‌های تازه در پلتفرم‌های هوش مصنوعی گامی مهم در مسیر حفاظت از نسل جوان است، اما این تنها آغاز راه است. آینده‌ی ایمن هوش مصنوعی نه در خاموش کردن فناوری، بلکه در درک عمیق‌تر، قانون‌گذاری مسئولانه و حمایت روانی هوشمندانه نهفته است.

پایان/*

.

 

مطالب مرتبط

برنجستان