رونویسی وضعیت بیمار با هوش مصنوعی در بیمارستانهای امریکا دچار خطا میشوند
ابزار رونویسی Whisper ساخت OpenAI در بسیاری از بیمارستانهای آمریکا استفاده میشود و گاه اطلاعاتی را به متن اضافه میکند که در واقعیت بیان نشدهاند.
شرکت Nabla از ابزار هوش مصنوعی Whisper جهت رونویسی مکالمات پزشکی استفاده میکند. طبق گزارش ABC، این ابزار تاکنون حدود هفت میلیون مکالمهی پزشکی را رونویسی کرده و بیش از ۳۰ هزار پزشک و ۴۰ سیستم بهداشتی از آن بهرهمند شدهاند. Nabla به چالش تولید اطلاعات نادرست توسط Whisper واقف است و روی رفع مشکلات کار میکند.
گروهی از پژوهشگران دانشگاه کرنل، دانشگاه واشنگتن و سایر موسسات در مطالعه ای دریافتند که مدل زبانی Whisper در حدود یک درصد از رونویسیها دچار توهم میشود و جملات کاملی را با احساسات گاه خشونتآمیز یا عبارات بیمعنی در خلال سکوتهای ضبطشده، ایجاد میکند.
پژوهشگران که نمونههای صوتی را از بانک اطلاعات AphasiaBank وبسایت TalkBank جمعآوری کردهاند، میگویند که سکوت بهویژه در هنگام صحبت افرادی که به اختلال زبانی آفازی مبتلا هستند، رایج است.
پژوهشگران دریافتند که Whisper، توهماتی از جمله اختراع بیماریهای پزشکی یا عباراتی که معمولاً در ویدیوهای پلتفرمهای اشتراکگذاری ویدیو مانند یوتیوب به کار میرود، تولید میکند. OpenAI برای آموزش مدل زبانی GPT-4 از بیش از یک میلیون ساعت ویدیو در یوتیوب بهره برده است./زومیت