۲۳:۴۳ - ۱۴۰۳/۱۰/۲۰

چگونه ماشین ها و انسان ها با هم اطلاعات نادرست ایجاد می کنند

هوش مصنوعی (AI) با قابلیت‌های خود – از نوشتن ایمیل گرفته تا تشخیص بیماری‌ها – خیره می‌شود، اما اعتماد به نفس آن در ارائه اطلاعات نادرست یک ویژگی عجیب و نگران‌کننده را نشان می‌دهد: ارائه پاسخ‌های نادرست با اطمینان. از آن یک سوا...

چگونه ماشین ها و انسان ها با هم اطلاعات نادرست ایجاد می کنند



هوش مصنوعی (AI) با قابلیت‌های خود – از نوشتن ایمیل گرفته تا تشخیص بیماری‌ها – خیره می‌شود، اما اعتماد به نفس آن در ارائه اطلاعات نادرست یک ویژگی عجیب و نگران‌کننده را نشان می‌دهد: ارائه پاسخ‌های نادرست با اطمینان. از آن یک سوال بپرسید، و گاهی اوقات پاسخ هایی ایجاد می کند که کاملاً قابل قبول به نظر می رسند اما کاملاً نادرست هستند. این پدیده اغلب “توهم هوش مصنوعی” نامیده می شود، اما این اصطلاح گمراه کننده است زیرا هوش مصنوعی شما را درک نمی کند یا واقعاً شما را دچار توهم نمی کند. در عوض، از طریق تجزیه و تحلیل نادرست داده ها خطا ایجاد می کند. در روانپزشکی، توهم به معنای درک چیزی است که وجود ندارد. هوش مصنوعی، با این حال، درک نمی کند. داده ها را تجزیه و تحلیل می کند و زمانی که خطا رخ می دهد، الگوهای تحریف شده ای را ایجاد می کند که ما آنها را با حقیقت اشتباه می کنیم.

انسان ها خطاهای هوش مصنوعی را تقویت می کنند

انسان ها نقش مهمی در تداوم اشتباهات هوش مصنوعی دارند. هوش مصنوعی صرفاً تعصبات ما را تکرار نمی کند، بلکه آنها را تقویت می کند و آنها را به زبانی صیقلی و قانع کننده می پیچد. انسان ها به طور طبیعی تمایل دارند به اطلاعاتی اعتماد کنند که از نظر عاطفی طنین انداز و منسجم است، و آنها را مستعد خروجی های متقاعد کننده و در عین حال ناقص هوش مصنوعی می کند. این یک چرخه تقویت کننده ایجاد می کند: ما اشتباهات هوش مصنوعی را به عنوان حقیقت می پذیریم و به نوبه خود آنها را به سیستم هایی که از رفتارهای ما می آموزند بازگردانیم.

این تعامل منعکس کننده اصول روانشناسی گشتالت است. مغز انسان به طور طبیعی شکاف ها را برای ایجاد الگوهای منسجم پر می کند. چند خط پراکنده می بینیم و مثلثی را شناسایی می کنیم یا چند نت موسیقی می شنویم و یک ملودی را در ذهن خود کامل می کنیم. وقتی هوش مصنوعی اطلاعات پراکنده یا ناقصی را ارائه می‌کند، ما به طور غریزی آن را «تکمیل» می‌کنیم و ناسازگاری‌ها را به چیزی که درست به نظر می‌رسد صاف می‌کنیم. توهم نوری معروف گلدان روبین این را برجسته می کند: آیا دو صورت وجود دارد یا یک گلدان؟ مغز ما شکاف های شناختی را پر می کند تا تصویری منسجم ایجاد کند.

ایزوفرم های شناختی اینترنتی و اتاق های اکو

داده‌های آموزشی هوش مصنوعی اغلب سوگیری‌های اینترنت را منعکس می‌کند، جایی که اتاق‌های پژواک فراوان هستند. افراد همفکر آنلاین در کنار هم قرار می گیرند و ایده های یکدیگر را از طریق تکرار و طنین احساسی تقویت می کنند. این الگوهای فکری سفت و سخت، “ایزوفرم های شناختی اینترنتی” نامیده می شوند، مفهومی که ریشه در تحقیقات من در مورد باورهای بیش از حد ارزش گذاری شده دارد. ایزوفرم های شناختی اینترنتی توصیف می کنند که چگونه ایده های تکراری و دارای بار احساسی در اینترنت در چارچوب های ذهنی سفت و سخت متبلور می شوند و بر تفکر فردی و جمعی تأثیر می گذارند. آنها صرفاً خصلت های فردی نیستند، بلکه عادات شناختی جمعی هستند که توسط عصر دیجیتال شکل گرفته اند.

هوش مصنوعی این ایزوفرم های شناختی را منعکس می کند. هنگامی که با کاربرانی که به دنبال تایید باورهای موجود هستند تعامل می کند، این ایده ها را تقویت می کند. این حلقه بازخورد می تواند تصورات غلط را در حقایق درک شده مستحکم کند. به عنوان مثال، پرس و جوی کاربر در مورد خطرات واکسن ممکن است نتایج ایجاد شده توسط هوش مصنوعی را به همراه داشته باشد که منعکس کننده رایج ترین و اغلب ناقص ترین دیدگاه های آنلاین است که به جای ارائه اطلاعات دقیق، شک و تردید را تقویت می کند.

چرا هوش مصنوعی احساس “درست” می کند: قلاب احساسی

روانشناسی گشتالت به ما می آموزد که انسان ها به سمت الگوهای طنین دار عاطفی کشیده می شوند. هوش مصنوعی که بر روی زبان و احساسات انسانی آموزش دیده است، منعکس کننده این تمایل است. پاسخ‌هایی با بار احساسی ایجاد می‌کند که حتی در صورت نادرست بودن، معنادار هستند. یک داستان دلگرم کننده یا یک روایت پیروزمندانه، صرف نظر از دقت واقعی، ما را مجذوب خود می کند زیرا با میل ذاتی ما برای انسجام و عمق احساسی همسو می شود. در واقع، مطالبی که دارای برچسب عاطفی هستند، بیشتر توسط انسان ها به خاطر سپرده می شوند.

شکستن چرخه

اگر خطاهای هوش مصنوعی منعکس کننده سوگیری های شناختی انسان است، آیا می توانیم این حلقه بازخورد را مختل کنیم؟ روانشناسی گشتالت بینش هایی را در مورد اینکه چگونه ممکن است هوش مصنوعی را بهتر تصور کنیم، ارائه می دهد. به یاد داشته باشید، فقط به این دلیل که اطلاعات منسجم به نظر می رسد به این معنی نیست که درست است. پاسخ های بسیار صیقلی یا از نظر احساسی رضایت بخش سؤال کنید. انسان ها هماهنگی را ترجیح می دهند، اما حقیقت اغلب آشفته است. فعالانه به دنبال دیدگاه هایی باشید که دیدگاه های شما را به چالش می کشد. AI تمایل دارد مسائل پیچیده را برای وضوح بیش از حد ساده کند. بر زمینه و جزئیات بیشتر پافشاری کنید.

چرا اهمیت دارد

هوش مصنوعی عمیقاً در زندگی ما ادغام شده است، از کمک به پزشکان گرفته تا شکل دادن به افکار عمومی. اگر به چگونگی تقویت تعصبات انسانی توجه نکنیم، در معرض خطر تقویت اطلاعات نادرست در مقیاس جهانی هستیم. اما این فقط به ماشین‌ها مربوط نمی‌شود، بلکه در مورد درک خودمان است. هوش مصنوعی طرز فکر ما را منعکس می کند و ممکن است نورون های آینه ای را فعال کند. در مشارکت بین انسان ها و هوش مصنوعی، کنجکاو ماندن، انتقاد پذیر بودن و باز بودن در برابر تغییرات ضروری است. همانطور که ما در حال حرکت در این رابطه در حال تکامل هستیم، این سوال فقط در مورد قابلیت های هوش مصنوعی نیست، بلکه در مورد چگونگی استفاده از ذهن خود در همکاری با این ابزارهای قدرتمند است.

مطالب مرتبط