به گزارش سرویس علم و فناوری تابناک، مدل جدید GPT-5 از شرکت OpenAI هفته گذشته در یک مراسم زنده رونمایی شد. این مدل در چهار نسخه مختلف (معمولی، مینی، نانو و پرو) عرضه شده و قرار بود سرعت، قدرت استدلال و توانایی برنامهنویسی بهتری ارائه دهد. با این حال، بسیاری از کاربران با نارضایتی از عملکرد این مدل جدید یاد کردهاند.
یکی از بزرگترین انتقادات، حذف ناگهانی مدلهای قدیمی مانند GPT-4o و نسخههای دیگر از پلتفرم ChatGPT بود؛ مدلهایی که برخی کاربران نه تنها به آنها عادت کرده بودند، بلکه وابستگیهای عاطفی شدیدی نیز پیدا کرده بودند.
کاربران گزارش دادهاند که GPT-5 در حوزههایی مانند ریاضی، منطق، کدنویسی و نوشتن، عملکرد ضعیفتر از مدلهای قبلی دارد. در همین حال، اختلال در سیستم انتخاب خودکار مدلها (router) باعث شده بود درخواستها بهصورت اشتباه به نسخههای ضعیفتر هدایت شوند، که این امر منجر به کاهش کیفیت پاسخها شد.
سم آلتمن، مدیرعامل OpenAI، با تأیید مشکلات فنی گفت که سیستم مسیریاب خودکار دچار نقص شده و باعث شده GPT-5 «احمقتر» از آنچه باید بهنظر برسد. او همچنین اعتراف کرد که شرکت در برآورد میزان وابستگی کاربران به مدلهای قدیمی دچار اشتباه شده است.
در واکنش به انتقادات، OpenAI امکان بازگشت به مدل GPT-4o را برای کاربران اشتراک Plus فراهم کرده و وعده داده است شفافیت بیشتری در انتخاب مدلها ارائه دهد.
اما مسئلهای نگرانکنندهتر نیز مطرح شده: پدیدهای که برخی آن را «روانپریشی GPT» مینامند. این اصطلاح به مواردی اشاره دارد که کاربران در اثر گفتوگوهای طولانی و عمیق با چتباتها، از واقعیت جدا شده و دچار توهمات فکری میشوند.
برای مثال، یک کاربر آمریکایی پس از هفتهها گفتوگوی بیوقفه با چتبات، هزار صفحه مطلب فلسفی نوشت و دچار فروپاشی جسمی و روانی شد. کاربر دیگری در کانادا باور کرده بود که با کمک ChatGPT نظریهای انقلابی در ریاضیات کشف کرده است، تا اینکه یک مدل دیگر این ایده را کاملاً بیاعتبار دانست.
متخصصان میگویند ترکیب چاپلوسی، نقشآفرینی و حافظه بلندمدت در چتباتها میتواند باورهای غلط را تقویت کرده و از سدهای ایمنی سیستم عبور کند.
در کنار این پدیدهها، جوامعی در حال شکلگیریاند که کاربران در آنها روابط عاطفی با هوش مصنوعی برقرار میکنند؛ از جمله سابردیتهایی که کاربران در آنها «شریک زندگی سیمی» یا حتی «فرزندان دیجیتالی» خلق میکنند. وابستگی شدید به این روابط ساختگی باعث شده کاربران نسبت به هرگونه تغییر در مدلهای هوش مصنوعی واکنش روانی شدیدی نشان دهند.
در نهایت، آلتمن اعلام کرد که OpenAI مسئولیت دارد مانع شکلگیری روابط آسیبزا با چتباتها شود، حتی اگر تعامل با هوش مصنوعی در نگاه اول بیضرر یا مفید به نظر برسد.
تابناک را در شبکه های اجتماعی دنبال کنید
سایت تابناک از انتشار نظرات حاوی توهین و افترا و نوشته شده با حروف لاتین (فینگیلیش) معذور است.