فردریش نیچه میگوید: «مطبوعات، راهآهن و تلگراف، اختراعاتی با قدمت هزاران سالهاند که هنوز کسی توانایی ساخت مشابه آنها را پیدا نکرده است.»
پیشرفت تکنولوژی، همانند رشد بدن انسان، معمولاً غیرخطی است؛ یعنی میتواند با سرعتهای مختلف کار کند و به سرعت شتاب بگیرد. چرا که هر دو پدیده، یعنی رشد انسان و پیشرفت تکنولوژی، ناشی از انباشت آهسته بسیاری از عوامل هستند. هریک از این عوامل ضروری اند، اما به خودی خود کافی نیستند و نمیتوانند منجر به موفقیت شوند. موفقیت فقط در کلیت آنها حضور دارد.
تد نلسون، نویسنده Computer Lib، در مورد ظهور رایانه شخصی میگوید: «نکتهی عجیب این است که همه اینها خیلی طول کشید و ناگهان اتفاق افتاد.»
هوش مصنوعی قوی چیست؟ هوش عمومی چیست؟
ابتدا درمورد تعدادی کلمهی مترادف صحبت میکنیم: هوش مصنوعی قوی، هوش عمومی، هوش عمومی مصنوعی (AGI) و هوش سرآمد، همه در اصل به یک چیز اشاره میکنند و آنچه به آن اشاره دارند، الگوریتم یا مجموعهای از الگوریتمهاست که میتواند همه وظایف انسانها را به طور کامل انجام دهد یا آنها را بهتر از خود انسان انجام دهد. برای روشن شدن بهتر موضوع، باید گفت چنین چیزی هنوز وجود ندارد و فقط در حد یک ایده است اما آنچه مسلم است، این است که انسان در تلاش برای رسیدن به این هدف است.
ما آن را هوش قوی مینامیم؛ زیرا تصور میکنیم قویتر از ما خواهد بود. آن را هوش عمومی می نامیم؛ زیرا برای همه مشکلات کاربرد دارد. نقطه مقابل هوش قوی، هوش ضعیف است. نقطه مقابل هوش خاص، هوش عمومی است.
این کلمات در سال ۲۰۱۸ نوشته شدهاند. ما اکنون در عصر هوش مصنوعی ضعیف زندگی میکنیم. هوش مصنوعی ضعیف الگوریتمی است که برای انجام یک کار آموزش دیده است ولی آن کار را خیلی خوب انجام میدهد. برای بینندگانی که با فیلم Rainman آشنا هستند، شخصیت داستین هافمن، قیاس خوبی برای ضعف هوش مصنوعی است: برای حل چند مشکل بسیار خاص مانند شمارش چوب کبریت روی زمین خیلی خوب عمل میکند ولی برای یک زندگی کامل ضعیف است.
هوش مصنوعی که دانشمندان داده در حال حاضر به جهان عرضه میکنند ، مجموعهای از مدلهای یادگیری ماشین است که هرکدام یک وظیفه را به خوبی انجام میدهند. آنها مانند جمعی سرباز هستند که پاسخهای خاص خود را به اتفاقات جهان ارائه میدهند. الگوریتمهای DeepMind، اخیراً AlphaZero، قادرند مجموعه گستردهتری از بازیهای ویدیویی را حل کنند. آنها فراتر از یک مشکل واحد هستند. این ممکن است راز آنها باشد.
بسیارخوب؛ هوش مصنوعی قوی نیست، اما آیا قوی تر میشود؟
دو سازمانی که جالب ترین کارها را در مورد هوش مصنوعی عمومی انجام میدهند، احتمالاً گوگل و Open AI هستند، یک اتاق فکر ایجاد شده توسط Elon Musk و Sam Altman در میان دیگران. تحقیقات هوش مصنوعی Google بیشتر در DeepMind و Google Brain اتفاق می افتد.
اگر هوش مصنوعی در حال قویتر شدن است، به همین دلیل است. و هوش مصنوعی قویتر میشود ، حداقل به این معنا که قادر به پیشبینی دقیقتر درباره دادههایی است که شما از آن تغذیه میکنید. پیشرفتی که در طی یک دهه گذشته در بینایی ماشین انجام داده شده است، با نزدیکشدن به صد درصد دقت در تشخیص درست اشیاء در تصاویر، یکی از شاخصهای رشد هوش مصنوعی است. توانایی الگوریتمهای DeepMind برای به دست آوردن هرچه بیشتر بازیها و انتقال یادگیری از یک بازی به بازی دیگر، نشانه دوم است. اما ما هنوز به این مرحله از پیشرفت نرسیدهایم.
آیا هوش مصنوعی تهدید است؟
در حالی که هوش مصنوعی قدرتمند چیزی است که درباره آن نگرانیهای زیادی وجود دارد، قطعا مهمترین تهدیدی نیست که بشر با آن روبهرو است. کسانی که آن را مأموریت زندگی خود برای ارتقاء آگاهی در مورد سوابق ضد اطلاعاتی قرار دادهاند، احتمالاً قبل از رسیدن به هوش مصنوعی قوی، توسط تهدید دیگری نابود میشوند. این طور نیست که آنها کاملاً در اشتباه هستند، مسئله اینجاست که اولویتهای مهمتر آنها کمرنگ شده است.
اعتقاد هزارههای AI، نقص عمیقتر و دیگری را متحمل میشود. گزارههای آنها تقریباً متافیزیکی است، گرچه آنها وانمود میکنند که در دنیای جسمی کاربرد دارند. هوش سرآمد، در تجسم مثبت یا منفی خود، برای چندین دهه پیشگویی شده است، اما از نظر آورندگانش، همیشه چند دهه از آن فاصله دارد. این ما را به یک نکته مهم میرساند: بحث در مورد هوش مصنوعی اساساً فیدئیستی است؛ یعنی ویژگیهای یک استدلال مبتنی بر ایمان را دارد نه یک بحث علمی. همانطور که G.K. Chesteron میگوید: «علامت ویژه جهان مدرن این نیست که شکاک است، بلکه این است که بدون دانستن آن، جزمی است.»
AI در ارتباط با ایمان و الوهیت، مانند بسیاری از فناوریهای قدرتمند دیگر است. پرومتئوس از زئوس آتش گرفت. راهآهن قطار انجیل را به ما داد. آنتونی لواندوفسکی، که گوگل را متهم به سرقت از فناوری ماشین خودران خود کرده بود، اخیرا کلیسای شخصی خود را تحت عنوان هوش مصنوعی تأسیس کرد.
نقل قولهایی عجیب و ترسناک درمورد هوش سرآمد!
تعدادی از چهرههای محترم در علم و فناوری سعی در هشدار دادن به بشریت در مورد خطرات هوش مصنوعی قوی دارند.
استیون هاوکینگ در WIRED: «جن از دسترس خارج است. ما باید در پیشرفت هوش مصنوعی به جلو حرکت کنیم؛ اما باید به خطرات بسیار واقعی آن نیز توجه داشته باشیم. من میترسم که هوش مصنوعی جایگزین انسان شود. اگر افراد، ویروسهای رایانه ای طراحی کنند، شخصی AI را طراحی میکند که خودش را همانندسازی کند. این، شکل جدیدی از زندگی خواهد بود که از انسان فراتر می رود.»
Elon Musk در MIT: «من فکر میکنم باید بسیار مراقب هوش مصنوعی باشیم. اگر بخواهم حدس بزنم، بزرگترین تهدید وجودی ما چیست، احتمالاً اینگونه است … به طور فزایندهای دانشمندان فکر میکنند که باید نظارتی در سطح ملی و بینالمللی وجود داشته باشد؛ فقط این اطمینان حاصل شود که ما کاری بسیار احمقانه انجام نمیدهیم. با هوش مصنوعی جن را احضار میکنیم. در تمام داستانهایی که پسر و پنتاگرام و آب مقدس وجود دارد، مثل این است که بله او مطمئن است که میتواند جن را کنترل کند.»
بیل گیتس در RedAit AMA: «من در اردوگاهی هستم که فوقالعاده نگران هوش است. ابتدا ماشینها کارهای زیادی را برای ما انجام میدادند ولی خیلی باهوش نبودند. اگر این شرایط را به خوبی مدیریت کنیم، میتواند مثبت باشد. چند دهه آینده، اطلاعات به اندازه کافی قوی هستند که باعث نگرانی شوند. من با Elon Musk و برخی دیگر در این مورد موافقم و نمیفهمم چرا برخی از مردم نگران نیستند.»
Alfred North Whitehead: «این تجارت، آینده خطرناکی دارد.»
کریس نیکلسون در WIRED: «فکر کردن در مورد هوش مصنوعی کوکائین تکنولوژیستهاست: ما را هیجانزده و بینیاز از پارانوئید میکند.»
نقد و بررسی قسمتی از کتاب روشنگری اکنون اثر استیون پینکر
اسکات آرونسون در نقد و بررسی کتاب روشنگری اکنون اثر استیون پینکر، خوشبینی پینکر را درمورد هوش مصنوعی، در پاراگرافهای زیر تحلیل می کند:
موضوع تصاحبشدن توسط هوش مصنوعی در جهان امروز مطرح است. من اکنون در جامعهای زندگی میکنم که همهی افراد معتقدند مهمترین مشکل پیش روی بشر، مسئله پیشرفت هوش مصنوعی است. من کاملاً با این نظر مخالفم؛ نه به این دلیل که فکر نمیکنم هوش مصنوعی میتواند یک تهدید باشد؛ بلکه به این دلیل که فکر میکنم مشکلات دیگری وجود دارد که تهدید بودن آنها قریبالوقوعتر است! میخواهم یک ضربالمثل جدید به سبک یونیایی را در قرن بیستویکم ابداع کنم: «باید سعی کنیم زنده بمانیم تا ببینیم که آیا رباتهای هوش مصنوعی تبدیل به بدترین مشکل ما میشوند یا نه!»
نظر پینکر متفاوت است: او از ترس اعتراض میکند. فکر میکند که افراد به اشتباه، هوش مصنوعی را خطرناک میپندارند.
استدلالهای پینکر به شرح زیر است:
اول، هوش یک جادو نیست که انسانها بیشتر از حیوانات داشته باشند و رباتهای دارای تکنولوژی هوش مصنوعی، در آینده آن را بیشتر از انسانها داشته باشند؛ بلکه مغز انسان، مجموعهای از ماژولها با هدف خاص است که به دلایل خاصی تکامل یافته است؛ بنابراین مفهوم «هوش عمومی مصنوعی» به سختی منسجم است.
دوم، این تفکر از تاریخ نسل انسانها نشأت میگیرد که باعث میشود آنها فوراً درمورد فتح و تصرف خود فکر کنند. هوش مصنوعی میتواند انگیزهها و کاربردهای مختلفی داشته باشد البته اگر برنامهنویسان بتوانند آن را حس کنند!
سوم، هرگونه هوش مصنوعی محدودیت منابع جهان فیزیکی را محدود میکند. به عنوان مثال، فقط به دلیل اینکه هوش مصنوعی میتواند یک برنامه را به طور کامل و عالی انجام دهد، به این معنا نیست که میتواند این برنامه را بدون نیاز به مثلاً ساخت یک میکروچیپ جدید یا به دست آوردن مواد اولیه لازم و همچنین کمک انسانها اجرا کند.
چهارم، تصور اینکه یک سرپرست اطلاعاتی، میتواند جهان را به دلیل وجود برخی از نواقص برنامهنویسی انسانی، نابود کرده و آن را تسخیر کند؛ پوچ است!
او معتقد است: «توانایی انتخاب عملی که اهداف منفی را برآورده سازد، قابلیتی نیست که مهندسان بخواهند آن را به عنوان گزینه اضافه به هوش مصنوعی اضافه کنند. این هوش است و فقط می تواند دستوراتی که به آن داده می شود، اجرا کند.»
نقد و بررسی نظرات پینکر پیرامون هوش مصنوعی
نکته اول:
استدلال چهارم در تنش اساسی با استدلالهای اول و دوم است. اگر هوش یک اکسیر همه منظوره نیست و مجموعهای از ابزارهای خاص است و اگر این ابزارها از انگیزه محصور میشوند، پس چرا نمیتوانیم به راحتی هوش مصنوعی را به سمت اهدافی که از دیدگاه ما جنون به نظر میرسند، سوق دهیم؟ آیا هرگز به انسانها شناخته نشده بود که هوش بزرگی را در خدمت اهداف خود قرار دهند؟ اهدافی که ممکن است خوب یا بد باشند!
نکته دوم:
درست است که هر موجودی تواناییها و سیستم طبیعی خاصی دارد که آن را برای اهداف خاصی به کار میبرد؛ مثلا غریزه گربه برای شکار و تامین غذا، عمل غریزی جفتگیری در پرندگان، توانایی سخن گفتن در انسان ها و …؛ اما آنچه مسلم است، این است که توانایی حل مسئله، در همه موجودات تا حدی وجود دارد ولی شدت آن در گونههای مختلف، متفاوت است. برای مثال، کاملا واضح است که توانایی حل مسئله در نیوتن، خیلی بیشتر از Roofus McDoofus است و این توانایی در Roofus McDoofus به مراتب بیشتر از یک مرغ است.
با هر مقیاسی که بخواهیم اندازه بگیریم، سخت است تصور کنیم محدودیتهای ذهن نیوتن به اندازه محدودیتهای انسانهای عادی بوده است؛ با وجود اینکه میدانیم محیط زندگی نیوتن محدودیتهای زیادی داشته است. از عرض کانال تولد گرفته تا میزان غذای موجود در محیط اجدادی و احتمالاً کاهش اطلاعاتی در محیط اجتماعی انسان. اگر چنین است، پس با توجه به تأثیرگذاری که نیوتن و دیگران، حتی با وجود مغز محدودشده زیستشناسی خود توانستند به آن دست یابند، چگونه ممکن است ما چشمانداز از بین بردن این محدودیتها را فقط یک موضوع ساده فناوری مانند ساخت یک ماشین حساب سریعتر یا یک ساعت دقیقتر ببینیم؟
نکته سوم:
به نظر میرسد استدلال درمورد محدودیت اطلاعاتی، توسط محدودیتهای جسمی برای یک ماموت یا یوزپلنگ که به دست همان مادههای اولیه است، به همان اندازه کار می کند. ممکن است ماموت بگوید: بله، این میمونهای بیموی خندهدار جدید از من باهوشتر هستند؛ اما هوش فقط یکی از عوامل در بین بسیاری است و اغلب تعیینکننده نیست. ماموت بسیار بزرگتر و قویتر ولی یوزپلنگ سریعتر است. از دید حیوانات وحشی، ورود انسانها واقعاً یک فاجعه بود. در کوتاهمدت، تفکر ماموتها درست است: هوش خالص و جداشده نمیتواند جادوی خود را به نیزهها و پیکانهای مسموم تبدیل کند که انسانها را از بین ببرد؛ اما بدون شک آن ماموت نمیتوانست تصور کند که در آینده چه تغییری قرار است در زندگی آنها ایجاد شود.
سرانجام، هر استدلالی که به برنامهنویسی انسانی متکی باشد و تصور کند که انسانها تصمیم به ساختن هوش مصنوعی با پتانسیلهای مخرب ندارند، باید با این واقعیت روبهرو شود که انسانها، سلاحهای هستهای را اختراع کردند و برای این کار به نظر میرسد دلایل غیر اخلاقی بی عیب و نقصی دارند. البته میتوانید تصور کنید یک هوش مصنوعی خوب ایجاد کنید تا هوش مصنوعی بد را خنثی کند؛ اما تا آن زمان فرصتی برای این کار پیدا نخواهید کرد.
منبع: SKYMIND