بازگشت به صفحه اول
 |  درباره ايران امروز  |  تماس با ايران امروز  |  آگهی در ايران امروز  | 
  |   صفحه اول   |   خبرهای روز   |   سياست   |   انديشه   |   فرهنگ و ادبيات   |   جامعه   |   محیط زیست   |   RSS   |  

هوش مصنوعی و آینده ترسناک بشر


iran-emrooz.net | Sun, 07.12.2014, 13:01

مارک وارد
خبرنگار تکنولوژی- بی‌بی سی
یکشنبه ۱۶ آذر ۱۳۹۳

بیچاره آدم‌ها! اگر حرف دانشمندان و مهندسان و هنرمندان نگرانی که روز به روز هم بیشتر می‌شوند درست باشد، کار آدم‌ها تمام است.

حتی پروفسور استیون هاوکینگ، فیزیک‌دان سر‌شناس بریتانیایی، هم به جمع هشداردهندگان پیوسته. می‌گوید اگر بشر وسیله‌ای بسازد، یا نرم‌افزاری بنویسد، که واقعا هوشمند باشد، معلوم نیست چه اتفاقی بیافتد. نگران است آن روز آغاز پایان کار آدمیزاد باشد.

یکی دو ماه پیش الون ماسک، رئیس شرکت تسلا، هم حرف‌های مشابهی زده بود. گفته بود هوش مصنوعی افسارگسیخته «بزرگ‌ترین تهدید» برای موجودیت بشر است. گفته بود نگران است عاقبت همه‌ ما له شدن زیر پاشنه موجوداتی حساب‌گر و بی‌عاطفه باشد، موجوداتی با هوش مصنوعی.

یک مورد دیگر پروفسور نیک بوستروم، استاد دانشگاه آکسفورد، است. او هم گفته ممکن است در عرض یک قرن موجوداتی با هوش مصنوعی دنیای‌ ما را به آخر برسانند.

یا نمونه دیگر، ری کورزوایل، مدیر مهندسی گوگل است. او هم نگران هوش مصنوعی است، هرچند به دلایلی پیچیده‌تر. او می‌گوید: «نوشتن الگوریتمی به‌عنوان الگوی اخلاقی که آن‌قدر محکم باشد که نرم‌افزارهای فوق‌هوشمند را مقید و مهار کند، کار آسانی نیست.»

این دغدغه در سال‌های اخیر دست‌مایه فیلم‌های بسیاری هم بوده. فیلم‌هایی مثل ترمیناتور، ماتریکس، یا بلید رانر که در همه‌ آن‌ها انسان ضعیف در برابر دشمنی هولناک با هوش مصنوعی قرار می‌گیرد.

از نمونه‌های جدید‌تر می‌توان فیلم «او» اثر اسپایک جونز را نام برد، که رابطه عاشقانه انسان و سیستم عامل را به تصویر می‌کشد. یا اثر در دست تهیه الکس گارلند به نام «اکس ماشینا»، که به وجه انسانی یک ربات یا آندروید می‌پردازد. یا فیلم جدید از سری «انتقام‌جویان»، که در آن قهرمانان داستان با «اولتران» می‌جنگند – موجودی با هوش مصنوعی فوق‌العاده که می‌خواهد بشر را نابود کند و حتما این کار را می‌کرد اگر قهرمان‌هایی مثل «تور»، «مرد آهنی» و دیگران نبودند.

حتی در عالم واقع، همین امروز هم نشانه‌هایی می‌توان دید که هوش انسان در برابر کامپیوتری که همه توانش را روی یک مسئله مشخص می‌گذارد، چقدر حقیر است. برنامه‌های شطرنج کامپیوتری از بهترین شطرنج‌بازان جهان که بگذریم بقیه انسان‌ها را به سادگی می‌برند. حتی یک وسیله ابتدایی مثل موبایلی که در جیبتان است محاسبات پیچیده‌ را در یک چشم‌بر هم‌زدن انجام می‌دهد.

یک ابرکامپیو‌تر ساخت آی. بی.‌ام به نام «واتسون» با بهترین‌های یک مسابقه تلویزیونی آمریکایی به نام «خطر» بازی کرد و همه را برد. مثال‌هایی از این دست بسیارند. مثال‌هایی که کامپیوتر‌ها برای مسئله‌هایی در حوزه‌های مختلف راه‌حل‌های جدید و خلاقانه پیدا می‌کنند، راه‌حل‌هایی که هرگز به عقل ما آدم‌ها نرسیده بودند.

شکی نیست که ماشین‌ها آرام‌آرام هوشمند‌تر می‌شوند و کارهایی که آدم‌ها در آن بهتر باشند روز به روز کمتر می‌شود.

مرگ با هواپیمای بی‌سرنشین

اما این خطر چقدر جدی‌ است؟ روزی که بشر اولین برنامه کامپیوتری «حقیقتا» هوشمند را بنویسد، برنامه‌ای که خودش بتواند نسخه‌ای هوشمند‌تر از خودش تولید کند، آیا چنان روزی می‌توان گفت کار انسان تمام است؟

نیل جیکوبستین، مدیر بخش هوش مصنوعی و رباتیک دانشگاه سینگولاریتی در کالیفرنیا، می‌گوید ممکن است. می‌گوید: «به نظرم رسیدن به دستاوردهای اخلاقی از هوش مصنوعی کار آسانی نیست.»

به اعتقاد او اگر از همین حالا تلاش کنیم می‌توانیم جلوی ظهور هوش مصنوعی افسارگسیخته را بگیریم. می‌گوید باید به پیامدهای کارمان وقتی چیز تازه‌ای خلق می‌کنیم بیاندیشیم، و جوامع‌ و نهاد‌هایشان را برای تغییرات فراگیری که ممکن است پیش بیاید آماده کنیم.

به زبان خودش «بهتر است این کار‌ها را پیش از آن‌که این فن‌آوری‌ها تکمیل شوند بکنیم. قدر مسلم نه هوش مصنوعی نه رباتیک هنوز به مرحله نهایی و تکمیل نرسیده‌اند. در کل اگر به این‌که کار کجا ممکن است خراب شود فکر نکنیم، احتمال این‌که کار خراب شود بیشتر می‌شود. من معتقدم این امکان را داریم که با جدیت به این پیش‌آمدهای منفی احتمالی فکر کنیم و تا جایی که می‌توانیم برایشان لایه‌های کنترلی بیشتر و فکرشده‌تر طراحی کنیم.»

آن‌طور که ماری شاناهان، استاد رباتیک ادراکی در امپریال کالج لندن، می‌گوید، کسانی که در زمینه هوش مصنوعی کار می‌کنند، هنوز به جایی نرسیده‌اند که بخواهند برای جلوگیری از لگام‌گسیختگی ساخته‌هایشان سیستم‌های امنیتی تعبیه کنند.

او می‌گوید: «جامعه متخصصان هوش مصنوعی آن‌قدر‌ها نگران نیست. به نظر می‌رسد مردم بیشتر نگرانند. شاید جای درست جایی وسط این دو باشد. در این لحظه قطعا جای نگرانی نیست. فکر نمی‌کنم در ۱۰-۲۰ سال آینده هم به هوش مصنوعی در سطح هوش انسان برسیم. با این حال شاید بد نباشد محققان حوزه هوش مصنوعی کم‌کم به مسائلی که استیون هاوکینگ و دیگران طرح کرده‌اند، فکر کنند.»

پروفسور شاناهان معتقد است بزرگ‌ترین مانع برای ساختن ماشین‌های حقیقتا هوشمند هنوز به‌ قوت خود باقی است – این‌که هوش ماشینی را چطور ایجاد کنیم. می‌گوید: «هنوز واقعا نمی‌دانیم بهترین راه چیست. طبیعت را کپی کنیم، یا همه‌چیز را از اول شروع کنیم.»

چارلز استراس، نویسنده داستان‌های علمی-تخیلی، بر این باور است که در ذات سیستم‌های با هوش مصنوعی خطری نهفته، اما این خطر صرفا به خاطر این‌که ماشین از ما بهتر فکر می‌کند، یا ناگهان می‌فهمد می‌تواند به‌جای دستور گرفتن از انسان دنبال دل خودش برود، به حقیقت نمی‌پیوندد.

آقای استراس می‌گوید: «هیچ‌کس ماشین هوشمندی که خودش هدفش را تعیین کند نمی‌خواهد، چون چنین ماشینی قاعدتا تصمیم می‌گیرد به جای این‌که کاری را که ما فکر می‌کنیم خوب است انجام دهد، مثل آدم‌ها با یک ظرف چیپس و کنترل تلویزیون در دست روی مبل ولو بشود.»

اگر به کارهایی که در حال حاضر در حوزه هوش مصنوعی انجام می‌شود نگاه کنیم، می‌بینیم بیشترش روی سیستم‌هایی متمرکز است که به‌طور مشخص آن خودآگاهی و اختیاری را که می‌تواند برای ما آدم‌ها مشکل‌آفرین شود، ندارند.

آقای استراس معتقد است هوش مصنوعی – چه امروز، چه در آینده – می‌تواند خطرناک باشد. اما به‌خاطر آدم‌هایی که هدایتش می‌کنند.

اومی‌گوید: «از نگاه من بزرگ‌ترین خطر هوش مصنوعی برای ما از ناحیه آن (موجود) خودآگاهی‌ست که اهدافش را تعیین می‌کند.»

این نویسنده داستان‌های علمی تخلیی اضافه می‌کند: «هواپیمای بی‌سرنشین آدم نمی‌کشد. آن آدمی که فرمان می‌دهد به نقطه فلان برو و فلان موشک را شلیک کن آدم می‌کشد. قصد و نیت آدم‌ها را باید به پرسش گرفت. همین حالا هم می‌شود گفت به دوران پساهوش مصنوعی قدم گذاشته‌ایم. با این حال هنوز نپذیرفته‌ایم که هوش مصنوعی در واقع جایگزینی برای خود ماست – ابزاری که تند‌تر و دقیق‌تر فکر می‌کند، اما نه ضرورتا خیرخواهانه‌تر.»


نظر شما درباره این مقاله:


Iran Emrooz
(iranian political online magazine)
iran emrooz©1998-2018
e-mail:
ايران امروز (نشريه خبری سياسی الكترونيك)
«ايران امروز» از انتشار مقالاتی كه به ديگر سايت‌ها و نشريات نيز ارسال می‌گردند معذور است. استفاده از مطالب «ايران امروز» تنها با ذكر منبع و نام نويسنده يا مترجم مجاز است.