به گزارش پارسینه و به نقل از techcrunch، در مقابل، برخی مهارت های دیگر مثل نوشتن ایمیل یا پاسخ گویی چت بات ها، با سرعت بسیار کمتری پیشرفت می کنند. حتی وقتی مدل ها بهتر می شن، محصول نهایی لزوماً بهتر نمی شه—به ویژه وقتی با چت باتی طرفیم که هم زمان باید ده ها کار مختلف انجام بده. پیشرفت هوش مصنوعی ادامه داره، اما دیگه مثل قبل یکنواخت نیست. چرا این تفاوت وجود دارد؟ پاسخ ساده تر از چیزی ست که فکر می کنی. اپلیکیشن های کدنویسی از میلیاردها تست قابل اندازه گیری بهره می برن که به آموزش تولید کدهای قابل اجرا کمک می کنن. این همون یادگیری تقویتی (Reinforcement Learning یا RL) هست—شاید مهم ترین عامل پیشرفت هوش مصنوعی در شش ماه اخیر که هر روز پیچیده تر می شه. یادگیری تقویتی می تونه با ارزیابی انسانی انجام بشه، اما وقتی معیار قبول یا رد واضح باشه، می شه اون رو میلیاردها بار تکرار کرد بدون نیاز به دخالت انسان. با اتکای بیشتر صنعت به یادگیری تقویتی، تفاوت بین مهارت هایی که قابل ارزیابی خودکار هستن و اون هایی که نیستن، بیشتر به چشم میاد. مهارت هایی مثل رفع باگ یا حل مسائل ریاضی رقابتی خیلی سریع تر پیشرفت می کنن، در حالی که مهارت هایی مثل نوشتن، فقط به صورت تدریجی بهتر می شن. شکاف تقویتی چیست؟ به طور خلاصه، شکاف تقویتی همون تفاوت در سرعت پیشرفت بین مهارت های قابل ارزیابی و غیرقابل ارزیابی ست—و حالا داره به یکی از عوامل تعیین کننده در توانایی های هوش مصنوعی تبدیل می شه. توسعه نرم افزار از جهات زیادی موضوعی ایده آل برای یادگیری تقویتیه. حتی قبل از ظهور هوش مصنوعی، زیرشاخه ای از مهندسی نرم افزار وجود داشت که روی تست فشار و پایداری کد تمرکز می کرد—چون توسعه دهندگان باید مطمئن می شدن کدشون قبل از اجرا خراب نمی شه. حتی زیباترین کدها هم باید از مراحل تست واحد، تست یکپارچه سازی، تست امنیت و غیره عبور کنن. این تست ها برای توسعه دهندگان انسانی ضروری ان—و طبق گفته یکی از مدیران ارشد گوگل، برای اعتبارسنجی کدهای تولیدشده توسط هوش مصنوعی هم به همان اندازه مفیدن. مهم تر از اون، این تست ها برای یادگیری تقویتی عالی ان چون از قبل سیستماتیک و قابل تکرار در مقیاس وسیع طراحی شده ان. در مقابل، هیچ راه ساده ای برای ارزیابی یک ایمیل خوب یا پاسخ مناسب چت بات وجود نداره؛ این مهارت ها ذاتاً ذهنی و سخت اندازه گیری ان. البته همه وظایف به راحتی در دسته های آسان برای تست یا سخت برای تست قرار نمی گیرن. مثلاً برای گزارش های مالی فصلی یا علم آکچوئری، کیت تست آماده نداریم—اما یک استارتاپ حسابداری با سرمایه کافی می تونه از صفر چنین سیستمی بسازه. برخی کیت های تست بهتر از بقیه عمل می کنن، و بعضی شرکت ها هم هوشمندتر به مسئله نزدیک می شن. اما در نهایت، قابلیت تست پذیری فرآیند پایه، تعیین می کنه که آیا اون فرآیند می تونه به یک محصول واقعی تبدیل بشه یا فقط یک دمو جذاب باقی بمونه. گاهی فرآیندها قابل تست تر از تصور ما هستند اگر هفته پیش از من می پرسیدی، تولید ویدیو با هوش مصنوعی رو در دسته ی سخت برای تست قرار می دادم. اما پیشرفت چشمگیر مدل جدید Sora 2 از OpenAI نشون داد که شاید این طور نباشه. در Sora 2، اشیا دیگه ناگهانی ظاهر یا ناپدید نمی شن. چهره ها شکل مشخصی دارن و شبیه افراد واقعی ان، نه فقط مجموعه ای از ویژگی ها. ویدیوها قوانین فیزیک رو—چه به صورت واضح و چه ظریف—رعایت می کنن. احتمالاً پشت پرده ی این ویژگی ها، سیستم های یادگیری تقویتی قدرتمندی وجود داره. کنار هم قرار گرفتن این ویژگی ها تفاوت بین واقع گرایی تصویری و توهم سرگرم کننده رو رقم می زنه. نتیجه گیری این یک قانون قطعی در هوش مصنوعی نیست، بلکه نتیجه ی نقش محوری یادگیری تقویتی در توسعه ی مدل هاست—نقشی که ممکنه در آینده تغییر کنه. اما تا زمانی که RL ابزار اصلی برای تبدیل مدل ها به محصول باشه، شکاف تقویتی بزرگ تر می شه—و این موضوع پیامدهای جدی برای استارتاپ ها و اقتصاد جهانی داره. اگر یک فرآیند در سمت درست شکاف تقویتی قرار بگیره، احتمالاً قابل اتوماسیون خواهد بود—و کسانی که الان اون کار رو انجام می دن، ممکنه به زودی به فکر تغییر شغل بیفتن. مثلاً اینکه کدوم خدمات درمانی قابل آموزش با RL هستن، تأثیر بزرگی بر شکل اقتصاد در 20 سال آینده داره. و اگر پیشرفت هایی مثل Sora 2 نشونه ای باشن، شاید خیلی زودتر از اون چیزی که فکر می کنیم، جواب این سؤال رو پیدا کنیم. |