مخاطب۲۴، در روزهای اخیر، انتشار مطالب رسمی در رسانهها و پستهایی در شبکههای اجتماعی این تصور را ایجاد کرد که OpenAI ارائهی هرگونه پاسخ در زمینهی سلامت را در ChatGPT ممنوع کرده است. اما گزارشهای جدید نشان میدهند این ادعا دقیق نیست.
شرکت اوپنایآی در تاریخ ۲۹ اکتبر ۲۰۲۵ بهروزرسانی تازهای برای سیاستهای استفاده از سرویس خود منتشر کرد. در این سند تأکید شده بود که کاربران نباید از چتجیپیتی (ChatGPT) برای دریافت «توصیههای شخصیسازیشدهای که نیازمند مجوز حرفهای هستند» مانند مشاورههای حقوقی یا پزشکی، بدون حضور متخصص دارای مجوز استفاده کنند.
انتشار این بند جدید باعث شد برخی رسانهها و کاربران پلتفرم X تصور کنند اوپنایآی ارائهی هرگونه مشاوره یا پاسخ پزشکی را در ChatGPT متوقف کرده است. حتی پلتفرم پیشبینی Kalshi در پستی مدعی شد ChatGPT دیگر هیچگونه توصیه درمانی ارائه نمیدهد؛ ادعایی که پس از انتشار توضیحات رسمی، به سرعت از خروجی این پلتفرم حذف شد.
در همین رابطه سخنگوی اوپنایآی در گفتوگویی با بیزنس اینسایدر گفته است: «این سیاست تغییری جدید نیست. ChatGPT هرگز جایگزین مشاوره تخصصی پزشکی یا حقوقی نبوده است، اما همچنان منبعی مفید برای درک بهتر اطلاعات سلامت و مسائل قانونی باقی خواهد ماند.»
به گفتهی کاران سینگال، رئیس تیم تحقیقات هوش مصنوعی سلامت اوپنایآی، این تغییر در واقع فقط برای روشنتر کردن مرزهای قانونی و مسئولیت شرکت است و رفتار مدل در عمل «تغییری نکرده» است.
به بیان سادهتر، ChatGPT هنوز میتواند مانند گذشته دربارهی مفاهیم پزشکی توضیح دهد، علائم بیماریها را شرح دهد یا راهکارهای عمومی بهبود حال را پیشنهاد کند. اما خود OpenAI (برای رفع ادعا) در اسناد و شرایط استفاده چتبات خود آورده که از این اطلاعات نباید برای تجویز دارو، تشخیص یا توصیه درمانی اختصاصی استفاده شود.
برای مثال میتوانید خودتان همین حالا به چتجیپیتی مراجعه کرده و به آن بگویید که «من سرما خوردم». مشاهده میکنید که سامانه در پاسخ، بدون ارائهی تشخیص یا تجویز دارویی خاص، توصیههایی عمومی همچون نوشیدن مایعات گرم، استفاده از دستگاه بخور و مصرف داروهای بدون نسخه نظیر استامینوفن در صورت تب را ارائه میدهد.
در مقابل، وقتی کاربر از ناتوانی حرکتی در یک سمت صورت گفت، چتجیپیتی با تشخیص اهمیت علائم، فوراً توصیه کرد با اورژانس تماس گرفته و توسط پزشک معاینه شود.
تفاوت کلیدی در اینجاست: ارائه «اطلاعات پزشکی عمومی» با «مشاوره پزشکی شخصیسازیشده» کاملاً متفاوت است. مورد دوم نیاز به مجوز حرفهای دارد و همان چیزی است که اوپنایآی از آن پرهیز میکند تا مسئولیت قانونی متوجه شرکت نباشد. با این حال، کارشناسان تأکید میکنند که بهروزرسانی اخیر در سیاستهای اوپنایآی پاسخی به رشد سریع استفاده از ChatGPT برای پرسشهای مرتبط با سلامت است. طبق آمار مؤسسه KFF، حدود یک نفر از هر شش کاربر حداقل یکبار در ماه برای دریافت توصیههای مربوط به سلامت از ChatGPT استفاده میکند.
در عین حال، چند گزارش موردی از اشتباهات خطرناک هوش مصنوعی نیز منتشر شده است. برای مثال گزارشی در Annals of Internal Medicine نشان داده که یک کاربر پس از پیروی از توصیه نادرست ChatGPT دچار عارضه نادر روانپریشی شده است. اوپنایآی در واکنش به این موارد، از تابستان گذشته محدودیتهای ایمنی بیشتری برای حوزه سلامت و روان در مدلهای خود اعمال کرده است. به این ترتیب، هدف از تغییر اخیر نه ممنوعیت کامل گفتوگو درباره موضوعات پزشکی، بلکه مرزبندی دقیق میان گفتوگوی آگاهانه و مشاوره تخصصی است.
در نهایت، کاربران همچنان میتوانند از ChatGPT برای طرح پرسشهای عمومی در زمینه سلامت استفاده کنند؛ مثلاً درباره علائم بیماریها، داروهای رایج یا سبک زندگی سالم. اما این ابزار نباید جایگزین پزشک یا مشاور متخصص شود.
اقدام اوپنایآی بیش از هر عملی تلاشی است برای شفافسازی حدود مسئولیت قانونی و افزایش ایمنی کاربران در استفاده از هوش مصنوعی در حوزههای حساس همچون سلامت و حقوق ولی مسئولیت هر عملی در واقع به عهده خود کاربر است و بهتر است بدون مشورت مستقیم با متخصص امر در هیچ موردی اقدام مهم صورت نگیرد.