مقالات زیادی درمورد مدل‌های مختلف هوش مصنوعی که توانایی درک و تولید گزارش‌های رادیولوژی را [حتی بهتر از خود رادیولوژیست‌ها] دارند در سال‌های اخیر مطرح شده است. اما آیا این مدل‌های هوش مصنوعی «دقیقا» همان‌گونه که یک رادیولوژیست گزارش‌اش را می‌بیند و متوجه می‌شود آن‌را می‌بینند و متوجه می‌شوند؟ یا روش مدل‌های برای انجام این تسک یه شکل دیگری است؟

این سوالی‌ست که مقاله‌ی منتشر شده توسط پژوهشگران دانشگاه هاروارد (لینک) قصد پاسخ‌گویی به آن‌را دارد.

در این مقاله روشی [به نام ReXKG و بر پایه‌ی knowledge graph] برای ارزیابی درک مدل‌های هوش مصنوعی از گزارش‌های رادیولوژی مطرح شده است که می‌تواند اطلاعات ساختاریافته‌ای را از گزارش‌های رادیولوژی بیرون بکشد و یک گراف دانشی ایجاد کند.

این روش روابط بین ساختارهای آناتومیکی، پاتولوژی‌ها، یافته‌های تصویربرداری، دستگاه‌های پزشکی و... را در نظر می‌گیرد. در تصویر زیر نحوه‌ی کارکرد این روش را مشاهده می‌کنید:

از جزئیات این روش عبور می‌کنیم. اما یافته‌های مقاله آن‌قدر جذاب هستند که بیایید درموردشان بدانیم!

مهم‌ترین یافته‌ی این مقاله [به عقیده‌ی من]، این است که مدل‌های عمومی (generalist models)، پوشش وسیع‌تری از درک روابط بین entity های مختلف را [نسبت به مدل‌های تخصصی] نشان داده‌اند و این درک، نسبت به گزارش‌های انسانی شکاف قابل توجهی دارد! فلذا پاسخ سوالی که پژوهشگران به دنبال آن بوده‌اند، فعلا «خیر» است!

این موضوع به صورت کلی یک زنگ خطر برای پژوهشگران این حیطه است که دست از پیشرفت نکشند و به [صرفا] تولیدشدن یک گزارش توسط یک مدل بسنده نکنند و تلاش بر این باشد که درک مدل از این گزارش‌ها دقیق‌تر و کامل‌تر باشد.

این مقاله همچنین این نکته‌ی مهم را یادآوری می‌کند که گزارش‌های تولیدشده توسط مدل‌های هوش مصنوعی، تمایل زیادی به شبیه‌بودن با مفاهیم خاصی دارند که در داده‌های آموزشی‌شان به وفور دیده شده‌اند. این bias، به شدت اهمیت دارد و باز هم نیاز هرچه بیشتر به روش‌های بهتری برای کاهش آن‌را یادآوری می‌کند.

اگر به این موضوع علاقه‌مند هستید، پیشنهاد می‌کنم که اصل مقاله را هم مطالعه کنید تا در جریان جزئیات فنی آن هم قرار بگیرید.