GPT-3 چیست؟ / What is GPT-3

GPT-3 چیست؟ نسخه‌ی جدید پردازش زبان طبیعی openAI را بشناسید14 دقیقه مطالعه

به تازگی OpenAI بزرگ‌ترین مدل زبان ‌طبیعی به نام GPT-3 را منتشر کرد که از لحاظ کارایی شبیه مدل‌های پیشین خود است. شاید برایتان سوال باشد که GPT-3 چیست؟ این مدل در درجه اول با خصوصیاتی چون دارا بودن ۱۰ برابر پارامتر بیش‌تر از بزرگ‌ترین مدل قبلی و آموزش‌دیدن در مجموعه‌ داده‌‌های انبوه  بسیار بزرگتر با دیگر نسخه‌ها تمایز دارد. اختلاف عددی به این بزرگی به GPT-3 تمرین‌داده شده این اجازه را می‌دهد تا به پیشرفت‌های کیفی به نسبت‌ رقبای سابقش برسد؛ برخلاف نسخه‌های دیگر، مدل تمرین‌داده شده GPT-3 می‌تواند کار‌های بسیاری را بدون این که برای آن‌ کار‌ها آموزش دیده باشد انجام دهد. این قضیه با تحسین‌های بسیاری هم در دنیای تکنولوژی و هم در دنیای اخبار  رو‌به‌رو شده است. بررسی‌هایی گوناگونی وجود دارند که موارد استفاده‌ی بی‌شمار و چند محدودیت کلیدی آن را بیان می‌کنند. با‌ این‌ که GPT-3 پیشرفت‌های چشم‌گیری داشته است، محدودیت‌هایی نیز از چشم‌ها دور مانده است که در ادامه به آن‌ها نیز خواهیم پرداخت.

داستان GPT-3 از کجا شروع شد؟

در ۲۸ ام ماه می، OpenAI در مقاله‌ای به نام «مدل‌های زبانی فراگیرانی سریع هستند»، GPT-3 را به عنوان بزرگ‌ترین مدل زبان که تا کنون ساخته شده است معرفی کرد. در این مقاله‌ی ۷۳ صفحه‌ای، نشان می‌دهد که چطور GPT-3 ترند‌های جدید پیشرفت‌های هنرمندانه در مدل‌سازی زبان‌ها را دنبال می‌کند. به طور گسترده، در بنچمارک‌های پردازش زبان طبیعی، GPT-3 به نتایج امیدوار‌کننده و قابل رقابت می‌رسد.

GPT-3 افزایش کارایی که از استفاده یک مدل بزرگ‌تر می‌آید را نشان‌ می‌دهد و دنباله‌رو افزایش عظیم در مدل و اندازه اطلاعات است که جدیدترین پیشرفت‌های NLP را توصیف می‌کند. پیام اصلی این بیانیه بیش‌تر از این که در مورد کارایی این مدل در بنچمارک‌ها باشد، در مورد این کشف بوده که به خاطر مقیاسش، GPT-3 قادر است تا وظایفی در NLP که تاکنون با آن‌ها روبه‌رو نشده است را بعد از یک بار دیدن و یا تعداد کمی مثال حل کند. این مساله در تضاد با چیزی است که امروزه‌ انجام می‌شود؛ این که مدل‌ها برای دستورات جدید باید با حجم عظیمی از اطلاعات تمرین داده شوند.

یادگیری با داده‌های کم چیست؟ / What is few-shot learning?

 

این تصویر مثال‌هایی را از روش GPT-3 (سمت چپ) و روش تنظیم قدیمی (سمت راست) نشان می‌دهد. زمانی که آپدیت‌های متحرک (gradient updates) انجام می‌شوند، به این معنی است که نمایش‌گر‌های داخلی مدل برای اطلاعات جدید تنظیم شده اند.

سال گذشته، OpenAI نسخه دوم GPT را توسعه داد که قادر بود متونی طولانی و منسجم تولید کند که تمایز آن با نوشته‌ی انسان‌ها سخت بود. OpenAI بیان می‌کند که از مدل و ساختار GPT-2 در محصول جدید خود بهره برده‌ است ولی تفاوتی که دارد این است که اندازه شبکه و اطلاعاتی که با آن آموزش داده می‌شود بسیار بزرگ‌تر از نسخه‌ها قبلی خود بوده است. GPT-3 در مقایسه با GPT-2 که ۱.۵ میلیارد مولفه داشته، ۱۷۵ میلیارد مولفه دارد و برخلاف GPT-2 که بر روی ۴۰ میلیارد گیگابایت متن بوده، GPT-3 بر روی ۵۷۰ میلیارد گیگابایت متن تمرین داده شده است. با این حال افزایش این مقیاس بدعت جدیدی نیست. چیزی که GPT-3 را مهم کرده  یادگیری با گزینه‌های اندک (few-shot learning) است که با مثال‌های متفاوتی در زمینه‌ی فعالیت‌های زبان طبیعی در مثال زیر نشان داده‌ایم.

 مثال GPT-3 چیست؟ / What is GPT-3

 

مثال‌هایی از GPT-3 در حال جواب دادن به سوالات در برگه

در ادامه پخش مقاله، بیان شد که در تاریخ ۱۱ ژوئن، دسترسی به GPT-3 برای توسعه‌دهندگان شخص ثالث از طریق رابط برنامه‌نویسی نرم‌افزار OpenAI ،اولین محصول تبلیغاتی و در مرحله تست بتا، میسر باشد. دسترسی به GPT-3 فقط از طریف دعوتنامه ممکن است و هنوز قیمت‌گذاری نشده است. بعد از پخش‌ توسط رابط برنامه‌نویسی نرم‌افزارOpenAI، به دلیل نمایش‌های بی‌نظیر GPT-3 و پتانسیل‌های آن (همچنین در نوشتن مقاله‌های کوتاه، پست‌های وبلاگ و تولید متون خلاقانه‌ی تخیلی)، بحث‌های زیادی در بین جامعه‌ی هوش‌مصنوعی و فراتر از آن به‌وجود آمد. یکی از بهترین‌ مثال‌های نمایش این پتانسیل، به وجود آوردن جاوااسکریپت تهنا با یک توضیح ساده در زبان انگلیسی است.

با استفاده از GPT-3، من پردازنده‌ی صفحه‌ای درست کردم که تنها با توضیح یک قالب، می‌تواند کد JSX را برای شما آماده کند.

آماده سازی کد/creating the code

در این‌جا یک پلاگین GPT-3 را می‌بینید که با گرفتن یک آدرس اینترنتی و توضیحاتش می‌تواند یک وبسایت جعلی شبیه به نسخه اصلی درست کند.

وبسایت جعلی/fake website

بعد از ساعت‌ها فکر کردن روی نحوه‌ی کار این، یک نسخه‌ی دموی GPT-3 فوق العاده را تست کردم. من هم با انسجام تست GPT-3 مبهوت مانده‌ام و هم با ظرافتش شگفت‌زده شده‌ام. بیایید قضیه اساسی حساب را با این امتحان کنیم.

دمو GPT-3/GPT-3 demo

بعد از دریافت دسترسی دانشگاهی، من در مورد نرم‌افزار‌های GPT-3 و شناخت آن در بخش زبان‌ها فکر می‌کردم. در این فکر کردن، به دموی جدیدی رسیدم، کاربرد لوازم جانبی، با یک شی چه کارهایی می‌توان انجام داد؟

دسترسی دانشگاه/college access

بازخورد‌های GPT-3

رسانه‌ها، متخصصان این زمنیه و انجمن‌های تکنولوژی گسترده‌ای نظرات متفاوتی پیرامون توانایی‌ها و پتانسل‌های GPT-3 و پیاده‌سازی آن در مقیاس‌های بزرگ‌تر دارند؛ نظراتی شامل خوش‌بینی به بهره‌وری بیش‌تر انسان‌ها در آینده و ترس از دست‌دادن شغل‌ها و همین‌طور بررسی‌های دقیق توانایی‌ها و محدودیت‌های GPT-3.

بازخورد رسانه‌های در مورد GPT-3 چیست؟

پوشش این مسئله‌ توسط رسانه‌ها از زمانی که نسخه‌های دمو منتشر شدند افزایش یافت:

  • بازخورد موسسه تکنولوژی MIT درباره GPT-3، همراه با ارائه‌ی منابع مختلفی نشان داد که چگونه می‌تواند متونی شبیه انسان‌ها خلق کند؛ از تولید کد‌های react گرفته تا سرودن شعر. این موسسه در مورد GPT-3 خاطر نشان کرد: «این فناوری می‌تواند نوشته‌های شبیه انسان بسازد اما نمی‌تواند ما را به هوش واقعی نزدیک‌تر کند.»
  • موسسه Verge بر روی پتانسیل‌های تبلغاتی نرم‌افزار‌های GPT-3 تمرکز کرد.
  • در پی بحث‌های پیرامون این موضوع، منابع خبری مانند Forbes و Venturebeat مشکلاتی مانند مدل Bias و Hype را بررسی کردند.
  • اضافه بر ذکر ‌کردن عیوب آن، Wired بیان کرد که GPT-3 می‌تواند نسخه‌ی جدیدتر و خطرناک‌تری از تکنولوژی Deepfake را به ما معرفی کند که باعث می‌شود رسانه‌ای دستکاری نشده برای مقایسه با نمونه‌های دستکاری شده‌ نباشد. متون مصنوعی معمولا به راحتی در حجم زیاد می‌توانند منتشر شوند و به راحتی نمی‌توان آن‌ها را شناخت.
  • روزنامه نیویورک‌تایمز نیز مطلبی با تیتر «نسل جدید هوش مصنوعی بسیار جالب و کمی ترسناک است» منتشر کرد. در مورد این‌که GPT-3 جایگزین نویسنده‌ها خواهد شد و این جای نگرانی دارد.
  • در آخر جان ناتن، پروفسور «فراگیری عمومی فناوری» دانشگاه Open و یکی از نویسندگان گاردین،  GPT-3 را فقط به عنوان پیشرفتی افزون‌بر پیشینیان این تکنولوژی می‌بیند نه این که کشف جدید و مهمی باشد. ناتن این هشدار را می‌دهد که اگر این پیشرفت‌ها به خاطر ارائه‌ی هر‌ چه بیش‌تر داده‌ها باشد، هزینه‌های جانبی آن در آینده بسیار هنگفت خواهد شد.

بازخورد متخصصان هوش مصنوعی در مورد GPT-3 چیست؟

در مقابل نظرات رسانه‌ها، بازخورد‌های متخصصان یادگیری ماشین و روش‌های زبان طبیعی بیش‌تر به خاطر کنجکاوی و تمرکز بر روی چگونگی استفاده از GPT-3 بود؛ و هم چنین یافتن‌ این‌که چقدر توانایی در فهمیدن کامل زبان انسان‌ها دارد.

  • سردبیر بخش تحقیقات هوش مصنوعی NVIDIA و پروفسور علوم ریاضی و حساب در Caltech، انیما آنندکوماد، از OpenAI این انتقاد را کرد که چرا به Bias به اندازه کافی توجه نکردند، با توجه به این که GPT-2 نیز مشکلاتی شبیه به این مدل جدید داشت. به دلیل این که منابع اطلاعاتی مدیریت‌نشده‌ای مانند Reddit در این تکنولوژی استفاده شده و برای نوشتن متن از انسان‌ها تاثیر گرفته است.
  • مدیر هوش‌مصنوعی فیسبوک، جروم پزنتی، نیز نظرات مشابهی داشت: GPT-3 خلاقانه و جالب است ولی برای از جنبه‌های حقوق بشری می‌تواند مضر باشد. وقتی از GPT-3 می‌خواهیم با کلماتی مانند یهودیان، سیاه، زنان و هولوکاست توییت بزند، به نتایج زننده‌ای ممکن است دست پیدا کنیم. ما به پیشرفت‌های بیش‌تری در مورد «هوش مصنوعی مسئولیت‌پذیر یا responsiveAI» قبل از این که آن را در دسترس عموم قرار بدهیم نیاز داریم.
  • دلیپ رائو، محقق یادگیری ماشین، با پستی در وبلاگش در مورد همه‌ی این مباحث پاسخ داد که جو ایجاد شده در فضای مجازی در مورد فناوری‌های نوظهور ممکن است گمراه‌کننده باشد. GPT-3 و نسخه‌های پشت‌سر آن فناوری یادگیری با داده‌های کم یا few-shot learning از مرحله‌ی تحقیقاتی به مرحله‌ی عملیاتی و کاربردی برسند. ولی هرگونه جهش تکنولوژی از حجم زیادی صحبت‌ها و بحث‌های درون شبکه‌های اجتماعی می‌آید که می‌توانند تفکر ما در مورد توانایی‌های واقعی این فناوری‌ها را مخدوش کنند.
  • جولیان توگلیوس، یک پروفسور هوش مصنوعی در NYU، نیز در مورد این موضوع در وبلاگش پستی با موضوع «یک تاریخچه‌ی بسیار کوچک از زمان‌هایی که ما هوش مصنوعی را حل کردیم» منتشر می‌کند. در آن پست به جهش تکنولوژی در GPT-3 اشاره می‌کند ولی دلایلی برای پایین آوردن هیجانات را بنابر پیشنه‌ی تاریخی هوش مصنوعی نیز می‌آورد. «الگوریتم‌ها برای جست‌وجو، بهینه‌سازی و یادگیری روزی دغدغه‌هایی برای ما داشتند؛ مثلا چگونه بشریت در حال سقوط و جایگزینی آن با ماشین‌ها است! اما دیگر امروزه این الگوریتم‌ها نرم‌افزار‌ها و محصولات ما را مدیریت می‌کنند و بهره‌وری آن‌ها را افزایش می‌دهند. بازی‌ها و اپلیکشین‌های گوشی و ماشین‌ها نیز از این ‌مسئله مثتثنا نیستند. الان که این تکنولوژی به طرز قابل اعتمادی کار می‌کند دیگر نمی‌توان اسمش را هوش مصنوعی گذاشت؛ بلکه این مسائل کمی خسته‌کننده شده‌اند!»

بازخورد صنایع لبه علم دنیا در مورد GPT-3 چیست؟

مفسران از صنایع تکنولوژی برخورد‌های متفاوتی داشتند و تعدادی نیز مفاهیم برنامه‌نویسی هوش مصنوعی را توضیح دادند.

  • مکس ولف، دانشمند داده‌ در بازفید، اهمیت این که انتظارات ما در سنجش GPT-3 چه تاثیری دارد را گوشزد کرد. چون معمولا مسائلی که به عنوان هوش گزارش می‌شوند از بهترین نمونه‌ها انتخاب می‌شوند. با این که، متن به دست آمده توسط GPT-3 از مدل‌های زبانی دیگر بهتر بوده است، چون این مدل به خودی خود بسیار کند، بزرگ و نیاز به تمرین با داده‌های زیاد دارد، تنظیم آن برای کارکردن با اطلاعات اختصاصی می‌تواند ممکن نباشد.
  • کوین لکر، از مهندسان گوگل و موسس استارتاپ Parse، نشان داده که GPT-3 می‌تواند پاسخ‌های دقیقی به بسیاری از سوالاتی که در مورد واقعیت‌های جهان از آن پرسیده می‌شود بدهد. این فناوری می‌تواند آن‌ها را به راحتی از طریق مجموعه نوشته‌های تمرینی‌اش به دست آورد. بلاگری به نام گوون برانون نیز GPT-3 را با بسیاری از نمونه‌کارها و موضوعات سنجیده است.
  • آقای برت گلدستین، کارآفرین و مدیرسابق بخش محصولات گوگل، در پاسخ به این‌که GPT-3 چگونه می‌تواند بر اساس مشخصات داده شده به آن توسط انسان، کد نویسی کند می‌گوید: «زمینه‌های ساده‌ی کد نویسی به سختی مورد حمله قرار می‌گیرند. این مسئله برای طراحی نیز ممکن است… بسیاری از شرکت‌ها تمایل به استفاده از GPT-3 را خواهند داشت تا این‌که مهندسان گران‌قیمت یادگیری ماشین را استخدام کنند تا مدل‌های کم‌ قدرت‌تر خود را برای این کار تمرین بدهند. دانشمندان داده‌، عوامل پشتیبانی مشترکین، دستیار‌های قانونی و شغل‌های بسیار دیگری در مواجهه با ریسک بسیار بزرگی هستند.»
  • در پاسخ به دمو‌های مختلفی از GPT-3 که توانایی‌های آن را نشان‌ می‌دهند، کاربر ردیت به نام rueracine، بحثی در مورد مسیر‌های شغلی در دنیای پس GPT-3 شروع کرد. پست این کاربر نشان ‌می‌دهد که حداقل تعدادی از افراد باور دارند که GPT-3 شغلشان را از آن‌ها خواهد گرفت. در آن طرف ماجرا نیز افرادی هستند که به بحث بازنشستگی زودتر از موعد و یا یادگیری و پرورش توانایی‌های جدید همگام با پیشرفت‌های روزمره تکنولوژی روی آورده و از آن پشتیبانی می‌کنند. همان‌گونه که افرادی این تکنولوژی به نام GPT-3 را به عنوان قدم برداشتن در سوی هوش مصنوعی عمومی می‌دانند، گروهی دیگر نیز باور دارند که توانایی‌های GPT-3 دست بالا گرفته شده و بسیاری از پیش‌بینی‌ها در ایٰن‌باره نمی‌تواند محقق شود.
  • جاناتان لی، پژوهشگری در طراحی تجربه‌ی کاربری، نیز در مورد نگرانی‌های شغلی مردم در پست خود با موضوع «بیایید در مورد هوش مصنوعی GPT-3 که طراحان را به لرزه خواهد انداخت حرف بزنیم» صحبت کرد و گفت مردم باید از نگرانی‌های خود برای از دست دادن شغلشان بکاهند.
  • برخلاف تصور فعلی بشریت از اتوماتیک شدن ساخت‌و‌سازها، هوش مصنوعی می‌تواند جریان کار را آسان کند تا دیگر نیازی نباشد ما با کار‌های طاقت‌فرسا و وقت‌گیر در انجام کاری خسته بشویم. این کار به انسان‌ها اجازه می‌دهد تا جست‌وجو‌های خلاقانه و تفکراتی جدید داشته باشند که خود باعث می‌شوند ما آزاد باشیم تا بتوانیم نمونه‌های طراحی جدیدی نیز خلق کنیم. در این مسئله‌ی هوش مصنوعی بستگی دارد که ما چگونه از آن استفاده خواهیم کرد.

سم التمن، مدیر‌عامل OpenAI، به حواشی این موضوعات این گونه پاسخ داد: «هرچند ما با این تکنولوژی به پیشرفت بسیاری زیادی در زمینه هوش مصنوعی رسیده‌ایم ولی هنوز زمینه‌های زیادی در همین مبحث هوش‌مصنوعی وجود دارد که انسان هنوز به آن‌ها دست نیافته است.

هیاهوی پیرامون GPT-3 بسیار زیاد بوده و این واقعا جالب است. ولی نقطه‌ ضعف‌هایی دارد و گاهی هم باعث اشتباهاتی احمقانه می‌شود. هوش مصنوعی قرار است در آینده دنیا را تغییر دهد ولی GPT-3 فقط یک سرچشمه‌ی آن است. چیز‌های بسیاری برای یافتن هنوز باقیست.

به طور خلاصه، بسیاری از متخصصان مثال‌های جالبی در مورد مقایسه‌ی زبان طبیعی با GPT-3 زدند. رسانه‌ها و مجامع تکنولوژی هر دو پیشرفت OpenAI را تبریک گفته و در عین حال این هشدار را دادند که ممکن است این باعث آشفتگی‌های تکنولوژی عظیمی در آینده شود. به‌هرحال، مدیرعامل OpenAI با نظرات محققان و منتقدان این تکنولوژی همراهی می‌کند و می‌داند که GPT-3 پیشرفت و جهش عظیمی را در زمینه هوش مصنوعی نشان‌ می‌دهد، ولی نمی‌تواند واقعا زبان را درک کند و این‌که مشکلات مهمی در استفا‌ده از این مدل در دنیای واقعی وجود دارد؛ می‌توان از این مشکلات، به جهت‌گیری‌ها و زمان تمرین آن نام برد.

محدودیت‌های GPT-3 چیست؟

سیستم جدید یادگیری با نمونه‌ها کم (few-shot learning) و قابلیت‌هایی که GPT-3 در زمینه‌ی هوش مصنوعی و پیشرفت‌های روز‌افزونش در این مبحث نشان داد و این واقعیت که تنها با تغییر و بزرگ‌تر کردن مقیاس مورد استفاده در سیستم‌هایی که قبلا وجود داشته‌اند به چنین پیشرفتی برسیم بسیار عالی است. ولی نتایج خارق‌العاده‌ای که از قابلیت‌هایش نشان داد باعث به وجود‌ آمدن هیاهوی بسیاری در این زمینه شده است. ما نکاتی در مورد این که باید این هیاهو کم‌تر شود را بیان خواهیم کرد. به طور کلی، قابلیت‌های فراوان GPT-3 و توانایی انجام کار‌های مختلف و به خطر انداختن شغل‌های مرتبط مانند جمله‌ای که می‌گوید «ممکن است هوش مصنوعی کد نویسان و حتی تمام صنایع را بازنشسته کنند و کنار بزنند» نشان‌‌دهنده‌ی نگرانی‌هایی پیرامون این مسئله‌ است. با این که GPT-3 پیشرفت‌های مهمی در زمنیه‌ی مدل‌های زبانی از خود نشان می‌دهد ولی هوش واقعی ندارد و نمی‌تواند کاملا جای کارکنان را بگیرد.

GPT-3 چیست؟ / What is GPT-3

گذشته از همه‌ی این‌ها، مدل GPT-3 شبیه همه‌ی‌ مدل‌های پیشین خود است و فقط پیشرفته‌تر شده است. با این که بزرگ‌تر کردن مقیاس تمرینی، نتایج عملکردی بسیار عالی داشت ولی GPT-3 محدودیت‌هایی که در ادامه ذکر خواهیم کرد را با خود دارد.

  • نداشتن حافظه‌ی طولانی مدت (به گونه‌ای که الان GPT-3 کار می‌کند، نمی‌تواند چیزی را شبیه انسان‌ها بعد از فعل و انفعالات موفق یاد بگیرد.)
  • محدودیت حجم ورودی (در مورد GPT-3، درخواست‌های بیش‌تر از چند جمله نمی‌توانند اجرا شوند.)
  • فقط می‌تواند با متن کار کنند (پس نمی‌تواند با تصویر، صدا یا هر چیز دیگری که انسان به راحتی به آن‌ها دسترسی دارد کار کند.)
  • نبود اعتماد (GPT-3 در زمینه‌هایی مبهم است و برای همین هیچ گونه گارانتی برای این که متن اشتباه یا مشکل‌داری در پاسخ به بعضی سوالات تولید کند وجود ندارد.)
  • ناتوان در تفسیر (وقتی GPT-3 با روش‌هایی تعجب‌آور کار می‌کند، ممکن است که تصحیح یا جلوگیری از چنین شرایطی را سخت یا حتی غیر ممکن بسازد.)
  • استنتاج آهسته (مدل‌های فعلی GPT-3 به علت مقیاس بالای تصمیم‌گیری‌های صورت گرفته، گران و نامناسب هستند.)

تاثیر GPT-3 بر مشاغل آینده چیست؟

با این که یک فناوری‌های شبیه GPT-3 می‌تواند طبیعت همه‌ی شغل‌ها را در آینده تغییر دهد ولی لزوما به این معنی نیست که آن شغل‌ها ناپدید خوا‌هند شد. همان‌طور که پذیرفتن تکنولوژی‌های جدید معمولا یک فرایند طولانی مدت و آهسته است، بسیاری از فناوری‌های هوش مصنوعی به‌جای جایگزینی شغل انسان، به انسان‌ها در همان‌راه یاری خواهند رساند. البته مورد دوم بسیار محتمل‌تر خواهد بود زیرا مدل‌های هوش مصنوعی نیاز به نظارت انسان‌ها دارند تا از نواقص احتمالی در امان باشند. با نگاه کردن به مثال توسعه‌ی وب، کسی که در مورد نکات تکنیکی اطلاعات و تخصص دارد برای کد نویسی و تصحیح کردن کد GPT-3 باید وارد عمل شود.

شرکت Computer vision، که جهش‌های زیادی قبل از NLP داشته، نگرانی‌های مشابهی را ایجاد کرده‌ بود، همان‌طور که چگونه هوش مصنوعی می‌تواند تعدادی از شغل‌های سیستم درمان‌ را تسخیر کند. ولی به جای گرفتن شغل‌ها و جایگزینی دکتر‌ها مانند رادیولوژیست‌ها، هوش مصنوعی می‌تواند جریان کار آن‌ها را آسان‌تر کند. کرتیس لانگلوتز، رادیولوژیست استنفورد، می‌گوید که هوش مصنوعی جای رادیولوژیست‌ها را نمی‌گیرد، بلکه رادیولوژیست‌هایی که از هوش مصنوعی استفاده می‌کنند جای آن‌هایی که از هوش مصنوعی استفاده نمی‌کنند را خواهند گرفت. چنین مدلی ممکن است برای GPT-3 هم اتفاق بیافتد؛ ولی در نهایت این فقط یک مدل است و مدل‌ها بی نقص نیستند.

بعضی معتقدند که GPT-3 قدم بزرگی در راه هوش مصنوعی است یا به عبارتی هوش مصنوعی عمومی؛ شبیه چیزی که انسان‌ها دارند. در عین‌حال که پیشرفت‌ خود را نشان‌ می‌دهد، این مهم است که در مورد نکته‌ای مهم برخلاف این‌ هیاهو‌ها حرف بزنیم. امیلی بندر، متخصص زبان‌‌شناسی محاسباتی، از دانشگاه واشنگتن و الکساندر کولراز دانشگاه سارلند به تازگی تستی به نام تست هشت‌پا را پیشنهاد دادند. در این آزمایش، دو نفر در یک جزیره دورافتاده زندگی می‌کنند و از طریق یک کابل در کف اقیانوس با هم ارتباط برقرار می‌کنند، جایی که اختاپوس می‌تواند به مکالمات این دو نفر گوش بدهد، مانند یک پراکسی برای مدل‌های زبانی مانند GPT-3 عمل کند. در آخر، اگر اختاپوس بتواند خودش را جای یکی از این دو فرد جا زند و موفق شود آزمایش را قبول شده است. ولی این دو محقق مثال‌هایی در مورد شرایطی که اختاپوس نمی‌تواند از این آزمایش موفق بیرون بیاید را نیز آوردند مانند ساخت وسایل یا دفاع شخصی. دلیل این مسئله این است که این مدل‌ها فقط می‌توانند با متون سروکار داشته باشند و چیزی از دنیای واقعی که بر روی درک زبانی تاثیر بسزایی دارد نمی‌دانند.

بهبود GPT-3 و نسخه‌ها بعدی آن می‌تواند مشابه زمانی باشد که اختاپوس را برای انجام بهترین چیزی که از قبل انجام می‌دهد آماده کنیم. همانطور که مدل‌هایی مانند GPT-3 هر روز پیچیده‌تر می‌شوند، نقاط قدرت و ضعف متفاوتی از خود نشان خواهند داد؛ ولی فقط یادگیری از متون نوشته‌شده‌ی یک مدل تعلیم داده شده در داده‌های انبوه است. درک و فهم واقعی از تقابل زبان‌ها، ذهن‌ها و دنیای واقعی می‌آید، چیزی که هوش‌های مصنوعی مانند GPT-3 نمی‌توانند تجربه کنند.

منبع: SKYNETTODAY

عضویت
اطلاع از
0 دیدگاه‌ها
بازخورد در متن
دیدن همه دیدگاه‌ها

فنولوژی را در شبکه‌های اجتماعی دنبال کنید

©۲۰۲۰ – کلیه حقوق مادی و معنوی متعلق به فنولوژی است.

عضویت در خبرنامه فنولوژی

جذاب‌ترین مطالب سایت را ماهانه دریافت کنید!

خبرنامه