به گزارش تابناک به نقل از عصرایران؛ مردی ۶۰ ساله پس از مشورت با چت جی پی تی (ChatGPT)، نمک خوراکی خود را با برومید سدیم جایگزین کرد؛ اقدامی که منجر به مسمومیت با برومید و بستری شدن سه هفتهای در بخش روانپزشکی شد.
خط بالا شاید به نظرتان خنده دار باشد یا این مرد را ناآگاه خطاب کنید، اما واقعیت چیز دیگری است، زیرا تقریبا همه افراد با دسترسی به اینترنت حداقل یک بار از چت جی پی تی سوال مرتبط با حوزه سلامت را داشتهاند و برای بسیاری از کاربران نیز به یک روال روزانه تبدیل شده است!
این مورد، خطرات بالقوه تکیه بر رباتهای چت هوش مصنوعی برای دریافت توصیههای سلامتی را برجسته میکند. با این حال، طبق یک نظرسنجی اخیر، بیشتر آمریکاییها اطلاعات سلامت تولید شده توسط هوش مصنوعی را «تا حدی قابل اعتماد» میدانند. کارشناسان هشدار میدهند که ابزارهای هوش مصنوعی هرگز نباید جایگزین مراقبتهای پزشکی حرفهای شوند.
رباتهای چت هوش مصنوعی سوابق پزشکی شما را ندارند
رباتهای چت هوش مصنوعی سوابق سلامت شخصی شما را در اختیار ندارند، از این رو نمیتوانند در مورد علائم جدید، شرایط موجود شما، یا نیازتان به مراقبتهای اورژانسی، راهنمایی قابل اعتمادی ارائه دهند.
به گفته دکتر مارگارت لوزواتسکی، مدیر ارشد اطلاعات پزشکی و معاون نوآوریهای سلامت دیجیتال در انجمن پزشکی آمریکا، توصیههای سلامتی رباتهای چت هوش مصنوعی نیز بسیار کلی هستند.
او اظهار داشت که بهترین کاربرد هوش مصنوعی در حال حاضر، استفاده از آن برای به دست آوردن اطلاعات زمینهای برای کمک به شما در طرح پرسشها از پزشک یا توضیح اصطلاحات پزشکی است که نمیدانید.
اطلاعات هوش مصنوعی ممکن است قدیمی یا نادرست باشند
هوش مصنوعی مولد (Generative AI) بر دادههایی تکیه دارد که با آنها آموزش دیده است و این دادهها ممکن است منعکس کننده جدیدترین راهنماییهای پزشکی نباشند. به عنوان نمونه، مراکز کنترل و پیشگیری از بیماری آمریکا اخیراً واکسن آنفولانزا به روز شده را برای همه افراد ۶ ماه و بالاتر توصیه کرده است و برخی از رباتهای چت ممکن است از این موضوع مطلع نباشند.
حتی زمانی که یک ربات چت هوش مصنوعی اشتباه میکند، میتواند مطمئن و قانع کننده به نظر برسد. سیستمهای هوش مصنوعی ممکن است برای پر کردن شکاف ها، اطلاعات را سر هم کرده و پاسخهای اشتباه یا گمراه کننده ارائه دهند.
مطالعهای که در مجله Nutrients منتشر شد، نشان داد که رباتهای چت محبوبی مانند جمنای، مایکروسافت کوپایلت و چت جی پی تی میتوانند برنامههای غذایی مناسبی برای کاهش وزن تولید کنند، اما در متعادل سازی درشت مغذی ها، از جمله کربوهیدرات ها، پروتئین ها، چربیها و اسیدهای چرب، موفق نیستند.
به گفته دکتر آینسلی مک لین، مشاور هوش مصنوعی سلامت و افسر ارشد سابق هوش مصنوعی در گروه پزشکی میدآتلانتیک کایزر پرمننته، من تمایلی ندارم که به بیمار بگویم هرگز کاری را بر اساس توصیههای چت جی پی تی انجام دهد.
آیا راهی امن برای استفاده از ابزارهای هوش مصنوعی برای سلامتی وجود دارد؟
دکتر مک لین خاطرنشان کرد که رباتهای هوش مصنوعی مولد در حال حاضر تحت پوشش قوانین حفظ حریم خصوصی سلامت مانند HIPAA نیستند. او گفت: "اطلاعات سلامت شخصی خود را وارد نکنید. این اطلاعات ممکن است به هر جایی ختم شود. "
هنگامی که خلاصههای هوش مصنوعی را در گوگل مرور میکنید، بهتر است بررسی کنید که آیا اطلاعات از یک مجله علمی یا سازمان پزشکی مطرح تهیه شده است یا خیر. همچنین، تاریخ اطلاعات را دوباره بررسی کنید تا ببینید آخرین بار چه زمانی به روز شده است.
دکتر لوزواتسکی اظهار امیدواری کرد که مردم در صورت تجربه علائم جدید، همچنان به پزشک خود مراجعه کنند و در مورد اطلاعاتی که از طریق یک ربات چت هوش مصنوعی پیدا کردهاند و هر اقدامی که انجام دادهاند، صریح و صادق باشند.
او افزود که کاملاً منطقی است که اطلاعات به دست آمده از هوش مصنوعی را با پزشک خود در میان بگذارید و از او بپرسید: "آیا این اطلاعات دقیق است؟ آیا در مورد من صدق میکند؟ و اگر نه، چرا؟ " همچنین میتوانید از پزشک خود بپرسید که آیا ابزار سلامت هوش مصنوعی خاصی وجود دارد که او به آن اعتماد دارد یا خیر.
نکات کلیدی
توصیههای سلامتی تولید شده توسط هوش مصنوعی میتوانند خطرناک باشند و هرگز نباید جایگزین راهنماییهای یک متخصص پزشکی دارای مجوز شوند.
رباتهای چت هوش مصنوعی ممکن است اطلاعات سلامتی قدیمی، گمراه کننده یا بیش از حد کلی ارائه دهند.
کارشناسان توصیه میکنند که از ابزارهای هوش مصنوعی تنها برای کسب دانش کلی و زمینهای استفاده کنید و حتماً هر گونه توصیه سلامتی که از طریق هوش مصنوعی به دست آمده است را با پزشک خود در میان بگذارید.