artificial intelligence/هوش مصنوعی

هوش مصنوعی قوی ، هوش مصنوعی ضعیف و هوش فوق‌العاده9 دقیقه مطالعه

هدیه فنولوژی به شما!

فردریش نیچه می‌گوید: «مطبوعات، راه‌آهن و تلگراف، اختراعاتی با قدمت هزاران ساله‌اند که هنوز کسی توانایی ساخت مشابه آن‌ها را پیدا نکرده است.»

پیشرفت تکنولوژی، همانند رشد بدن انسان، معمولاً غیرخطی است؛ یعنی می‌تواند با سرعت‌های مختلف کار کند و به سرعت شتاب بگیرد. چرا که هر دو پدیده، یعنی رشد انسان و پیشرفت تکنولوژی، ناشی از انباشت آهسته بسیاری از عوامل هستند. هریک از این عوامل ضروری اند، اما به خودی‌ خود کافی نیستند و نمی‌توانند منجر به موفقیت شوند. موفقیت فقط در کلیت آن‌ها حضور دارد.

تد نلسون، نویسنده Computer Lib، در مورد ظهور رایانه شخصی می‌گوید: «نکته‌ی عجیب این است که همه این‌ها خیلی طول کشید و ناگهان اتفاق افتاد.»

هوش مصنوعی قوی چیست؟ هوش عمومی چیست؟

ابتدا درمورد تعدادی کلمه‌ی مترادف صحبت می‌کنیم: هوش مصنوعی قوی، هوش عمومی، هوش عمومی مصنوعی (AGI) و هوش سرآمد، همه در اصل به یک چیز اشاره می‌کنند و آنچه به آن اشاره دارند، الگوریتم یا مجموعه‌ای از الگوریتم‌هاست که می‌تواند همه وظایف انسان‌ها را به طور کامل انجام دهد یا آن‌ها را بهتر از خود انسان انجام دهد. برای روشن شدن بهتر موضوع، باید گفت چنین چیزی هنوز وجود ندارد و فقط در حد یک ایده است اما آن‌چه مسلم است، این است که انسان در تلاش برای رسیدن به این هدف است.

ما آن را هوش قوی می‌نامیم؛ زیرا تصور می‌کنیم قوی‌تر از ما خواهد بود. آن را هوش عمومی می نامیم؛ زیرا برای همه مشکلات کاربرد دارد. نقطه مقابل هوش قوی، هوش ضعیف است. نقطه مقابل هوش خاص، هوش عمومی است.

این کلمات در سال ۲۰۱۸ نوشته شده‌اند. ما اکنون در عصر هوش مصنوعی ضعیف زندگی می‌کنیم. هوش مصنوعی ضعیف الگوریتمی است که برای انجام یک کار آموزش دیده است ولی آن کار را خیلی خوب انجام می‌دهد. برای بینندگانی که با فیلم Rainman آشنا هستند، شخصیت داستین هافمن، قیاس خوبی برای ضعف هوش مصنوعی است: برای حل چند مشکل بسیار خاص مانند شمارش چوب کبریت روی زمین خیلی خوب عمل می‌کند ولی برای یک زندگی کامل ضعیف است.

هوش مصنوعی که دانشمندان داده در حال حاضر به جهان عرضه می‌کنند ، مجموعه‌ای از مدل‌های یادگیری ماشین است که هرکدام یک وظیفه را به خوبی انجام می‌دهند. آنها مانند جمعی سرباز هستند که پاسخ‌های خاص خود را به اتفاقات جهان ارائه می‌دهند. الگوریتم‌های DeepMind، اخیراً AlphaZero، قادرند مجموعه گسترده‌تری از بازی‌های ویدیویی را حل کنند. آن‌ها فراتر از یک مشکل واحد هستند. این ممکن است راز آن‌ها باشد.

بسیارخوب؛ هوش مصنوعی قوی نیست، اما آیا قوی تر می‌شود؟

دو سازمانی که جالب ترین کارها را در مورد هوش مصنوعی عمومی انجام می‌دهند، احتمالاً گوگل و Open AI هستند، یک اتاق فکر ایجاد شده توسط Elon Musk و Sam Altman در میان دیگران. تحقیقات هوش مصنوعی Google بیشتر در DeepMind و Google Brain اتفاق می افتد.

اگر هوش مصنوعی در حال قوی‌تر شدن است، به همین دلیل است. و هوش مصنوعی قوی‌تر می‌شود ، حداقل به این معنا که قادر به پیش‌بینی دقیق‌تر درباره داده‌هایی است که شما از آن تغذیه می‌کنید. پیشرفتی که در طی یک دهه گذشته در بینایی ماشین انجام داده شده است، با نزدیک‌شدن به صد درصد دقت در تشخیص درست اشیاء در تصاویر، یکی از شاخص‌های رشد هوش مصنوعی  است. توانایی الگوریتم‌های DeepMind برای به دست آوردن هرچه بیشتر بازی‌ها و انتقال یادگیری از یک بازی به بازی دیگر، نشانه دوم است. اما ما هنوز به این مرحله از پیشرفت نرسیده‌ایم.

آیا هوش مصنوعی تهدید است؟

در حالی که هوش مصنوعی قدرتمند چیزی است که درباره آن نگرانی‌های زیادی وجود دارد، قطعا مهم‌ترین تهدیدی نیست که بشر با آن روبه‌رو است. کسانی که آن را مأموریت زندگی خود برای ارتقاء آگاهی در مورد سوابق ضد اطلاعاتی قرار داده‌اند، احتمالاً قبل از رسیدن به هوش مصنوعی قوی، توسط تهدید دیگری نابود می‌شوند. این طور نیست که آن‌ها کاملاً در اشتباه هستند، مسئله اینجاست که اولویت‌های مهم‌تر آنها کم‌رنگ شده است.

اعتقاد هزاره‌های AI، نقص عمیق‌تر و دیگری را متحمل می‌شود. گزاره‌های آن‌ها تقریباً متافیزیکی است، گرچه آن‌ها وانمود می‌کنند که در دنیای جسمی کاربرد دارند. هوش سرآمد، در تجسم مثبت یا منفی خود، برای چندین دهه پیشگویی شده است، اما از نظر آورندگانش، همیشه چند دهه از آن فاصله دارد. این ما را به یک نکته مهم می‌رساند: بحث در مورد هوش مصنوعی اساساً فیدئیستی است؛ یعنی ویژگی‌های یک استدلال مبتنی بر ایمان را دارد نه یک بحث علمی. همان‌طور که G.K. Chesteron می‌گوید: «علامت ویژه جهان مدرن این نیست که شکاک است، بلکه این است که بدون دانستن آن، جزمی است.»

AI در ارتباط با ایمان و الوهیت، مانند بسیاری از فناوری‌های قدرتمند دیگر است. پرومتئوس از زئوس آتش گرفت. راه‌آهن قطار انجیل را به ما داد. آنتونی لواندوفسکی، که گوگل را متهم به سرقت از فناوری ماشین خودران خود کرده بود، اخیرا کلیسای شخصی خود را تحت عنوان هوش مصنوعی تأسیس کرد.

artificial intelligence/هوش مصنوعی

نقل قول‌هایی عجیب و ترسناک درمورد هوش سرآمد!

تعدادی از چهره‌های محترم در علم و فناوری سعی در هشدار دادن به بشریت در مورد خطرات هوش مصنوعی قوی دارند.

استیون هاوکینگ در WIRED: «جن از دسترس خارج است. ما باید در پیشرفت هوش مصنوعی به جلو حرکت کنیم؛ اما باید به خطرات بسیار واقعی آن نیز توجه داشته باشیم. من می‌ترسم که هوش مصنوعی جایگزین انسان شود. اگر افراد، ویروس‌های رایانه ای طراحی کنند، شخصی AI را طراحی می‌کند که خودش را همانند‌سازی کند. این، شکل جدیدی از زندگی خواهد بود که از انسان فراتر می رود.»

Elon Musk در MIT: «من فکر می‌کنم باید بسیار مراقب هوش مصنوعی باشیم. اگر بخواهم حدس بزنم، بزرگ‌ترین تهدید وجودی ما چیست، احتمالاً اینگونه است … به طور فزاینده‌ای دانشمندان فکر می‌کنند که باید نظارتی در سطح ملی و بین‌المللی وجود داشته باشد؛ فقط این اطمینان حاصل شود که ما کاری بسیار احمقانه انجام نمی‌دهیم. با هوش مصنوعی جن را احضار می‌کنیم. در تمام داستان‌هایی که پسر و پنتاگرام و آب مقدس وجود دارد، مثل این است که بله او مطمئن است که می‌تواند جن را کنترل کند.»

بیل گیتس در RedAit AMA: «من در اردوگاهی هستم که فوق‌العاده نگران هوش است. ابتدا ماشین‌ها کارهای زیادی را برای ما انجام می‌دادند ولی خیلی باهوش نبودند. اگر این شرایط را به خوبی مدیریت کنیم، می‌تواند مثبت باشد. چند دهه آینده، اطلاعات به اندازه کافی قوی هستند که باعث نگرانی شوند. من با Elon Musk و برخی دیگر در این مورد موافقم و نمی‌فهمم چرا برخی از مردم نگران نیستند.»

Alfred North Whitehead: «این تجارت، آینده خطرناکی دارد.»

کریس نیکلسون در WIRED: «فکر کردن در مورد هوش مصنوعی کوکائین تکنولوژیست‌هاست: ما را هیجان‌زده و بی‌نیاز از پارانوئید می‌کند.»

artificial intelligence/هوش مصنوعی

نقد و بررسی قسمتی از کتاب روشنگری اکنون اثر استیون پینکر

اسکات آرونسون در نقد و بررسی کتاب روشنگری اکنون اثر استیون پینکر، خوش‌بینی پینکر را درمورد هوش مصنوعی، در پاراگراف‌های زیر تحلیل می کند:

موضوع تصاحب‌شدن توسط هوش مصنوعی در جهان امروز مطرح است. من اکنون در جامعه‌ای زندگی می‌کنم که همه‌ی افراد معتقدند مهم‌ترین مشکل پیش روی بشر، مسئله پیشرفت هوش مصنوعی است. من کاملاً با این نظر مخالفم؛ نه به این دلیل که فکر نمی‌کنم هوش مصنوعی می‌تواند یک تهدید باشد؛ بلکه به این دلیل که فکر می‌کنم مشکلات دیگری وجود دارد که تهدید بودن آن‌ها قریب‌الوقوع‌تر است! می‌خواهم یک ضرب‌المثل جدید به سبک یونیایی را در قرن بیست‌و‌یکم ابداع کنم: «باید سعی کنیم زنده بمانیم تا ببینیم که آیا ربات‌های هوش مصنوعی تبدیل به بدترین مشکل ما می‌شوند یا نه!»

نظر پینکر متفاوت است: او از ترس اعتراض می‌کند. فکر می‌کند که افراد به اشتباه، هوش مصنوعی را خطرناک می‌پندارند.

استدلال‌های پینکر به شرح زیر است:

اول، هوش یک جادو نیست که انسان‌ها بیش‌تر از حیوانات داشته باشند و ربات‌های دارای تکنولوژی هوش مصنوعی، در آینده آن را بیش‌تر از انسان‌ها داشته باشند؛ بلکه مغز انسان، مجموعه‌‍‌‌‌ای از ماژول‌ها با هدف خاص است که به دلایل خاصی تکامل یافته است؛ بنابراین مفهوم «هوش عمومی مصنوعی» به سختی منسجم است.

دوم، این تفکر از تاریخ نسل انسان‌ها نشأت می‌گیرد که باعث می‌شود آن‌ها فوراً در‌مورد فتح و تصرف خود فکر کنند. هوش مصنوعی می‌تواند انگیزه‌ها و کاربردهای مختلفی داشته باشد البته اگر برنامه‌نویسان بتوانند آن را حس کنند!

سوم، هرگونه هوش مصنوعی محدودیت منابع جهان فیزیکی را محدود می‌کند. به عنوان مثال، فقط به دلیل این‌که هوش مصنوعی می‌تواند یک برنامه را به طور کامل و عالی انجام دهد، به این معنا نیست که می‌تواند این برنامه را بدون نیاز به مثلاً ساخت یک میکروچیپ جدید یا به دست آوردن مواد اولیه لازم و همچنین کمک انسان‌ها اجرا کند.

چهارم، تصور اینکه یک سرپرست اطلاعاتی، می‌تواند جهان را به دلیل وجود برخی از نواقص برنامه‌نویسی انسانی، نابود کرده و آن را تسخیر کند؛ پوچ است!

او معتقد است: «توانایی انتخاب عملی که اهداف منفی را برآورده سازد، قابلیتی نیست که مهندسان بخواهند آن را به عنوان گزینه اضافه به هوش مصنوعی اضافه کنند. این هوش است و فقط می تواند دستوراتی که به آن داده می شود، اجرا کند.»

نقد و بررسی نظرات پینکر پیرامون هوش مصنوعی

نکته اول:

استدلال چهارم در تنش اساسی با استدلال‌های اول و دوم است. اگر هوش یک اکسیر همه منظوره نیست و مجموعه‌ای از ابزارهای خاص است و اگر این ابزارها از انگیزه محصور می‌شوند، پس چرا نمی‌توانیم به راحتی هوش مصنوعی را به سمت اهدافی که از دیدگاه ما جنون به نظر می‌رسند، سوق دهیم؟ آیا هرگز به انسان‌ها شناخته نشده بود که هوش بزرگی را در خدمت اهداف خود قرار دهند؟ اهدافی که ممکن است خوب یا بد باشند!

نکته دوم:

درست است که هر موجودی توانایی‌ها و سیستم طبیعی خاصی دارد که آن را برای اهداف خاصی به کار می‌برد؛ مثلا غریزه گربه برای شکار و تامین غذا، عمل غریزی جفت‌گیری در پرندگان، توانایی سخن گفتن در انسان ها و …؛ اما آن‌چه مسلم است، این است که توانایی حل مسئله، در همه موجودات تا حدی وجود دارد ولی شدت آن در گونه‌های مختلف، متفاوت است. برای مثال، کاملا واضح است که توانایی حل مسئله در نیوتن، خیلی بیشتر از Roofus McDoofus است و این توانایی در Roofus McDoofus به مراتب بیش‌تر از یک مرغ است.

با هر مقیاسی که بخواهیم اندازه بگیریم، سخت است تصور کنیم محدودیت‌های ذهن نیوتن به اندازه محدودیت‌های انسان‌های عادی بوده است؛ با وجود این‌که می‌دانیم محیط زندگی نیوتن محدودیت‌های زیادی داشته است. از عرض کانال تولد گرفته تا میزان غذای موجود در محیط اجدادی و احتمالاً کاهش اطلاعاتی در محیط اجتماعی انسان. اگر چنین است، پس با توجه به تأثیرگذاری که نیوتن و دیگران، حتی با وجود مغز محدود‌‌‌‌‌‌شده زیست‌شناسی خود توانستند به آن دست یابند، چگونه ممکن است ما چشم‌انداز از بین بردن این محدودیت‌ها را فقط یک موضوع ساده فناوری مانند ساخت یک ماشین حساب سریع‌تر یا یک ساعت دقیق‌تر ببینیم؟

نکته سوم:

به نظر می‌رسد استدلال درمورد محدودیت اطلاعاتی، توسط محدودیت‌های جسمی برای یک ماموت یا یوزپلنگ که به دست همان ماده‌های اولیه است، به همان اندازه کار می کند. ممکن است ماموت بگوید: بله، این میمون‌های بی‌موی خنده‌دار جدید از من باهوش‌تر هستند؛ اما هوش فقط یکی از عوامل در بین بسیاری است و اغلب تعیین‌کننده نیست. ماموت بسیار بزرگ‌تر و قوی‌تر ولی یوزپلنگ سریع‌تر است. از دید حیوانات وحشی، ورود انسان‌ها واقعاً یک فاجعه بود. در کوتاه‌مدت، تفکر ماموت‌ها درست است: هوش خالص و جداشده نمی‌تواند جادوی خود را به نیزه‌ها و پیکان‌های مسموم تبدیل کند که انسان‌ها را از بین ببرد؛ اما بدون شک آن ماموت نمی‌توانست تصور کند که در آینده چه تغییری قرار است در زندگی آن‌ها ایجاد شود.

سرانجام، هر استدلالی که به برنامه‌نویسی انسانی متکی باشد و تصور کند که انسان‌ها تصمیم به ساختن هوش مصنوعی با پتانسیل‌های مخرب ندارند، باید با این واقعیت روبه‌رو شود که انسان‌ها، سلاح‌های هسته‌ای را اختراع کردند و برای این کار به نظر می‌رسد دلایل غیر اخلاقی بی عیب و نقصی دارند. البته می‌توانید تصور کنید یک هوش مصنوعی خوب ایجاد کنید تا هوش مصنوعی بد را خنثی کند؛ اما تا آن زمان فرصتی برای این کار پیدا نخواهید کرد.

منبع: SKYMIND

بخوانید:   نرم افزار دیپ‌ فیک | دانلود دیپ فیک اندروید | دانلود deepfake
نیکا سلطانی تهرانی
نیکا سلطانی تهرانی
دانشجوی مهندسی برق دانشگاه امیرکبیر
عضویت
اطلاع از
0 دیدگاه‌ها
بازخورد در متن
دیدن همه دیدگاه‌ها

فنولوژی را در شبکه‌های اجتماعی دنبال کنید

©۲۰۲۰ – کلیه حقوق مادی و معنوی متعلق به فنولوژی است.