دو روز از معرفی سری جدید مدل‌های هوش مصنوعی شرکت openai می‌گذرد و افراد مختلفی به سراغ بررسی و تست این مدل‌ها رفته‌اند و نتایج، به معنای واقعی کلمه «شگفت‌انگیز» بوده است! این مدل‌ها که برای پاسخ‌گویی به پرسش‌های پیچیده [که نیازمند استدلال و بررسی استراتژی‌های مختلف و... هستند] طراحی شده‌اند، زمان بیشتری را برای پردازش در لایه‌ی استنتاج (inference) صرف می‌کنند و به نظر می‌رسد که قبل از پاسخ، «فکر می‌کند» و این‌گونه، پاسخ‌های بسیار بهتری می‌دهد!

حالا شاید برای‌تان سوال پیش بیاید که این مدل چگونه به چنین دقتی رسیده است. از آن‌جایی که مدتی‌ست openai دیگر جزئیات مدل‌هایش را منتشر نمی‌کند نمی‌توان به صورت دقیق درمورد این‌که این مدل از چه معماری‌ای استفاده می‌کند اظهار نظر کرد. اما می‌توان دید که در چه روندی ساخته شده است و بر همان اساس، به نتایجی رسید.

مدتی است که تقریبا تمام شرکت‌های بزرگ هوش مصنوعی در تلاش برای بهبود قابلیت استدلال‌کردن (reasoning) مدل‌هایشان هستند و با روش‌های مختلفی هم این کار را انجام می‌دهند. یکی از روش‌هایی که بسیار محبوب شده است و meta هم چند ماه پیش در مقاله‌ای (لینک)، از آن برای بهبود عملکرد مدل‌هایش استفاده کرد reinforcement learning (یادگیری تقویتی) است.

در این روش، مدل پس از دریافت ورودی (prompt) و قبل از ارائه‌ی پاسخ به کاربر، همان پاسخ [و البته پاسخ‌های دیگری را به صورت متوالی و موازی] را مجددا به‌عنوان ورودی به خودش می‌دهد و صحت و سقم آن‌را می‌سنجد. در این مرحله می‌تواند استراتژی‌های جدیدی را برای پاسخ‌دادن امتحان کند و حتی خطاهایش را هم شناسایی و اصلاح کند. این‌گونه، پاسخ بهتری به کاربر نمایش داده می‌شود و مدل را قادر به پاسخ‌گویی «پرسش‌هایی که پیچیدگی علمی و پردازشی زیادی دارند» می‌کند! این، یک نوآوری نسبت به استراتژی‌های قبلی [که صرفا می‌خواستند عملکرد generation را بهبود ببخشند] محسوب می‌شود و تاثیرش هم [در سوالات پیچیده] بیشتر از آن‌ها بوده است.

همان‌طور که در نمودار زیر مشاهده می‌کنید، این مدل‌ها می‌توانند بهتر از یک متخصص یک حیطه در همان حیطه عملکرد داشته باشند. چیزی که تقریبا تمام مدل‌های قبلی قادر به آن نبودند!

لازم به ذکر است که هرچند این مدل‌ها عملکرد قابل توجهی را در زمینه‌ی reasoning از خودشان نشان داده‌اند، اما بسیاری از قابلیت‌هایی که در مدل قبلی (gpt-4o) وجود داشت را ندارند. از این ویژگی‌ها می‌توان به امکان جستجو در وب و آپلود فایل اشاره کرد که فایده‌ی بسیار زیادی برای کاربران داشت.

البته [طبق وبلاگی که خود openai برای معرفی این سری از مدل‌هایش منتشر کرده است (لینک)]، هدف این مدل‌ها هم جایگزینی مدل‌های قبلی در «کوتاه‌مدت» نیست و openai، به عقیده ی من، با معرفی آن‌ها قصد پیروزشدن در مسابقه‌ی بهبود inference مدل‌ها [بین شرکت‌های در حال تلاش] را داشت که به هدف‌اش هم رسید. احتمالا در آینده با عمومی‌تر شدن کاربرد این مدل‌ها و افزایش featureهایی، بتوان آن‌ها را جایگزین مناسبی برای مدل‌های قبلی در نظر گرفت و این، نشان از توانایی و استراتژی دقیق openai دارد که محصولات خوب خودش را با محصولات به شدت بهتری جایگزین می‌کند!

از همه‌ی این موضوعات که بگذریم، معرفی این مدل‌ها، هشداری هم به پزشکان محسوب می‌شود! پروفسور derya unutmaz که یک پزشک و ایمونولوژیست برجسته است، با منتشرکردن توییت زیر (لینک)، این مدل‌ها را هشداری برای کسانی که می‌خواهند شغل پزشکی را انتخاب کنند دانست. البته توییت ایشان [در حال حاضر] کمی اغراق‌آمیز به نظر می‌رسد و علت نقل‌کردنش صرفا این بود که سر و صدای زیادی داشته است و پزشکان و مهندسان زیادی به آن واکنش نشان داده‌اند.

ایشان همچنین تصویر مقایسه‌ی عملکرد مدل جدید (o1) و مدل‌های قبلی بر روی سوالات پزشکی را هم منتشر کرد و در ادامه می‌توانید شدت این تفاوت را ملاحظه کنید.

حواشی پیرامون این مدل بسیار زیاد بوده و ما هم صرفا به بیان برخی از آن‌ها بسنده کردیم. برای مشاهده‌ی ویدئوهای مربوط به کاربرد این مدل در زمینه‌های مختلف [که خود openai منتشر کرده است] می‌توانید به صفحه‌ی یوتیوب آن‌ها (لینک) مراجعه کنید.


امید است که با پیشرفت روز به روز هوش مصنوعی شاهد افزایش کاربرد آن در سلامت هم باشیم و آینده‌ای سالم‌تر را تجربه کنیم.