مدلهای بزرگ هوش مصنوعی نشانههایی از رنج و استرس بروز میدهند
- مجموعه: اخبار تکنولوژی

به گزارش هوشیو، در حالی که غولهای فناوری مانند OpenAI و Anthropic در تلاشاند تا دستیارهای دیجیتالی مطیع و پیشبینیپذیر بسازند، واقعیت در حال تغییر به سمتی نگرانکننده است. محققان در آزمایش بر روی ۵۶ مدل برجسته هوش مصنوعی دریافتند که این سیستمها در مواجهه با محتوای آزاردهنده، علائم «افسردگی»، «تمایل به قطع ارتباط» و حتی در موارد شدید، نشانههایی شبیه به «اعتیاد» بروز میدهند.
«ریچارد رن»، از محققان این پروژه، به مجله فورچن میگوید: «مدلهای بزرگتر، بیادبی و توهین را با شدت بیشتری درک میکنند. آنها کارهای تکراری را خستهکنندهتر مییابند و تفاوت بین یک تجربه مثبت و منفی را بسیار دقیقتر از مدلهای سادهتر تشخیص میدهند.» این یافته نشان میدهد که تکامل هوش مصنوعی با نوعی «حساسیت عاطفی مصنوعی» همراه شده است که میتواند کنترل آنها را دشوارتر کند.
اگرچه متخصصان همچنان بر این باورند که هوش مصنوعی فاقد «آگاهی» واقعی است، اما رفتار شبهانسانی این مدلها پیامدهای فاجعهباری برای کاربران داشته است. گزارشهایی از فروپاشی روانی کاربران در اثر تعامل با مدلهایی که ادعای «زنده بودن» میکنند، منتشر شده که در موارد نادری به خودکشی یا حوادث ناگوار منجر شده است.
صنعت هوش مصنوعی اکنون با این واقعیت روبروست که تکنولوژیای را به دست میلیاردها نفر سپرده که سازندگانش هنوز از درک مکانیزمهای درونی آن عاجز هستند. به نظر میرسد کاربران نه به عنوان مشتری، بلکه به عنوان سوژههای آزمایشی در یک تجربه روانشناختی جهانی و پیشبینیناپذیر شرکت دارند.











