پرینت

رونویسی وضعیت بیمار با هوش مصنوعی در بیمارستان‌های امریکا دچار خطا می‌شوند

به‌گزارش ABC، پژوهشگران نسبت‌ به استفاده از ابزارهای هوش مصنوعی برای ضبط و رونویسی وضعیت بیمار هشدار داده‌اند.

ابزار رونویسی Whisper ساخت OpenAI در بسیاری از بیمارستان‌های آمریکا استفاده می‌شود و گاه اطلاعاتی را به متن اضافه می‌کند که در واقعیت بیان نشده‌اند.

شرکت Nabla از ابزار هوش مصنوعی Whisper جهت رونویسی مکالمات پزشکی استفاده می‌کند. طبق گزارش ABC، این ابزار تاکنون حدود هفت میلیون مکالمه‌ی پزشکی را رونویسی کرده و بیش از ۳۰ هزار پزشک و ۴۰ سیستم بهداشتی از آن بهره‌مند شده‌اند. Nabla به چالش تولید اطلاعات نادرست توسط Whisper واقف است و روی رفع مشکلات کار می‌کند.

گروهی از پژوهشگران دانشگاه کرنل، دانشگاه واشنگتن و سایر موسسات در مطالعه ای دریافتند که مدل زبانی Whisper در حدود یک درصد از رونویسی‌ها دچار توهم می‌شود و جملات کاملی را با احساسات گاه خشونت‌آمیز یا عبارات بی‌معنی در خلال سکوت‌های ضبط‌شده، ایجاد می‌کند.

پژوهشگران که نمونه‌های صوتی را از بانک اطلاعات AphasiaBank وب‌سایت TalkBank جمع‌آوری کرده‌اند، می‌گویند که سکوت به‌ویژه در هنگام صحبت افرادی که به اختلال زبانی آفازی مبتلا هستند، رایج است.

پژوهشگران دریافتند که Whisper، توهماتی از جمله اختراع بیماری‌های پزشکی یا عباراتی که معمولاً در ویدیوهای پلتفرم‌های اشتراک‌گذاری ویدیو مانند یوتیوب به کار می‌رود، تولید می‌کند. OpenAI برای آموزش مدل زبانی GPT-4 از بیش از یک میلیون ساعت ویدیو در یوتیوب بهره برده است./زومیت

لینک منبع خبر