ايران امروز

نشريه خبری سياسی الكترونيك

Iran Emrooz (iranian political online magazine)

iran-emrooz.net | Fri, 16.02.2024, 9:47
از میمون تا هوش مصنوعی (بخش شش)

ب. بی‌نیاز (داریوش)

هوش فراگیر مصنوعی

در بخش پیش گفته شد که ما در حال حاضر و برای چند دهه آینده در دورۀ ماشین‌های هوشمند بسر خواهیم برد و تا رسیدن به یک هوش فراگیر مصنوعی (Artificial general Intelligence - agi) به زمانی دراز نیاز داریم. حال این پرسش طرح می‌شود: هوش فراگیر مصنوعی چیست و آیا امکانات کنونی جوامع بشری توانایی تحققِ آن را دارد یا نه؟

هوش فراگیر مصنوعی یا سامانۀ ابرهوشمند، سامانه‌ایست جهانی که تمامی توانایی‌های انسانی را در خود متمرکز و به مثابۀ یک مغز جهانی عمل خواهد کرد. پس همانگونه که خواننده می‌بیند این سامانۀ پندارین آهنگی‌ست که احتمالاً در آیندۀ دور نواخته خواهد شد.

ولی برای این که هم‌اکنون یک تصویر کلی و انتزاعی از آن به دست بیاوریم، ابتدا لازم است که این پرسش را طرح نماییم که پیش‌شرط‌های رسیدن به یک هوش فراگیر مصنوعی چیست؟

الف) پیش‌شرط‌های فنی و فناوری
ب) پیش‌شرط‌های اقتصادی
ج) پیش‌شرط‌های اجتماعی

الف: پیش‌شرط‌های فنی و فناوری

۱) ابتدا باید در عرصۀ جهانی هزاران ماشینِ هوشمندِ تخصصی در حوزه‌های گوناگون ساخته شوند. ساختن چنین ماشین‌های هوشمند تخصصی به این دلیل از اهمیت تعیین‌کننده برخوردارند زیرا از طریق این ماشین‌های تخصصی، آرام آرام اطلاعاتِ نادرست و نیمه‌درست که هم اکنون در اقیانوس اینترنت جاری هستند، جای خود را به داده‌های واقعی و اندیشه‌شده بدهند. این ماشین‌های هوشمندِ تخصصی می‌باید در همۀ حوزه‌ها مانند فناوری، علوم تجربی، صنعت، اقتصاد خُرد و کلان، پزشکی، اقلیم‌شناسی، جامعه‌شناسی، دین‌شناسی، باستان‌شناسی و ... شکل‌ بگیرند؛ بدون شکل‌گیری چنین دانش‌هایی در قالبِ ماشین‌های هوشمند، آنهم در سطح جهانی، چیزی به نام هوش فراگیر مصنوعی آینده (یا سامانۀ ابرهوشمند) نمی‌تواند متحقق گردد. زیرا هوش فراگیر مصنوعی آینده، در عین حال باید هوش فراگیر مصنوعیِ متخصصِ «همه‌چیزدان» [صفتی که به «خدا» اطلاق می‌شود] نیز باشد. به عبارت دیگر، سامانۀ ابرهوشمندِ آینده، چیزی نیست مگر ترکیب ارگانیک [نویرال] این ماشین‌های هوشمند در سطح جهانی که کنترل و هدایت سازمان‌های اقتصادی و اجتماعی انسان‌ها را در دست خواهد گرفت: به سخن دیگر، هوش فراگیر مصنوعی نه یک هوش ملی یا منطقه‌ای بلکه یک سامانۀ ابرهوشمند جهانی (Global Super Intelligence) است.

۲) انسان باید بتواند در گام‌های آینده‌اش به منابع بس بزرگ انرژی بازیافتی دسترسی پیدا کند. زیرا ساختن هزاران ماشین‌ِ هوشمند تخصصی به معنی راه‌اندازی مراکز داده بزرگ (Big Data Center) هستند و این بدان معنی است که ما به منابع انرژی بسیار زیادی نیازمند خواهیم شد. در حال حاضر، فقط مراکز داده‌ها (بدون کامپیوترهای خانگی) ۳۵۰ تا ۴۰۰ تراوات در ساعت برق مصرف می‌کنند[۱] یعنی اگر این مراکز داده را به عنوان یک کشور فرض کنیم پس از چین، آمریکا، هند، روسیه و ژاپن، ششمین کشور جهان می‌شد. تازه ما در آغاز دورۀ ساخت ماشین‌های هوشمند هستیم و در چند دهۀ آینده هزاران ماشین از این دست خواهیم ساخت، به عبارتی در آینده نزدیک، مصرفِ برق مراکز داده‌ها و اینترنت چنان بالا خواهد بود که با هیچ کشوری در جهان قابل مقایسه نخواهد بود.[۲]

فقط در نظر بگیرید که تنها در چین بیش از ۷۵۰ میلیون دوربین هوشمند برای تشخیص چهره نصب شده که بخش بزرگی از آنها به میکروفون نیز مجهز هستند و سالانه ۲.۵ میلیارد چهره با توضیحات هوش مصنوعی دربارۀ فرد مربوطه را ذخیره می‌کنند. با توجه به این که در آینده، همۀ کشورهای جهان از نمونۀ چین پیروی خواهند کرد، تصورِ مصرف انرژی [برق] برای مراکز داده‌ها و اینترنت حتا برای کارشناسان این حوزه بسیار دشوار است. از سوی دیگر، تمامی دولت‌های جهان به تدریج از وضعیت آنالوگِ کنونی به دیجیتال یعنی دولتِ دیجیتالی (E-Government) تبدیل خواهند شد. تصور مصرف انرژی برای پردازش و ذخیرۀ این همه داده از چند میلیارد انسان برایمان امکان‌ناپذیر است. بنابراین نبودِ انرژی کافی یکی از دلایلی است که هوش فراگیر مصنوعی نتواند در حال حاضر متحقق شود.

برای حل مشکل انرژی آینده هم اکنون در کنارِ بهره‌گیری از انرژی خورشید[۳]، باد، امواج دریا، هستۀ زمین و منابع سنتی تاکنونی پژوهشگران تلاش می‌کنند که از طریق «جوشش هسته‌ای» (Nuclear Fusion) - که برخلاف «شکاف هسته‌ای» (Nuclear Fission) کنونی از تفالۀ رادیوآکتیو عاری است- بخشی از این کمبود را حل کنند. در واقع جوشش هسته‌ای همان چیزی است که درون خورشید رخ می‌دهد و انسان تلاش می‌کند یک نسخۀ کوچک از آن را بازسازی کند. اگرچه نخستین آزمایشات در مرکز پژوهش‌های رآکتوری National Ignition Facility در ایالات متحد آمریکا در سطح آزمایشگاهی موفقیت‌آمیز بود ولی، با نگاهی خوشبینانه، برای رسیدن به این هدف دست کم سه چهار دهۀ دیگر نیاز داریم.[۴]

در کنار این جوشش هسته‌ای، گرفتن انرژی از خورشید در فضا است. زیرا در فضا شب و روز وجود ندارد و همیشه خورشید می‌تابد و در آنجا سلول‌های خورشیدی (photovoltaic cell) پنل‌ها می‌توانند هشت برابر بیشتر انرژی خورشیدی جذب کنند تا روی زمین. پروژه مَپل (MAPLE)[۵] که زیر نظر پروفسور علی حاجی‌میری[۶] انجام می‌شود، می‌تواند در آینده بخش بزرگی از نیازهای انرژی مردم روی زمین را از طریق امواج کوتاه تأمین کند. شاید بدین ترتیب آرزوی به فرجام نرسیدۀ نیکولا تسلا به واقعیت تبدیل گردد. ولی برای رسیدن به این منبع انرژی به سالیان درازی نیاز داریم.

۳) ذخیره‌سازی داده‌ها. از آنجا که ما هر روز میلیاردها داده برای ذخیره کردن داریم در عمل به این نتیجه رسیده‌ایم که ابزارهای کنونی ذخیره‌سازی در آیندۀ نه چندان دور توانایی برآوردن نیازهای ما را نخواهند داشت. در حال حاضر، دی وی دی، دیسک‌های سخت و نوار مغناطیسی از اصلی‌ترین ابزار ذخیره‌سازی هستند. سرورهای بزرگ به دیسک‌‌های‌ سخت مجهز هستند که در واقع هر سرور چندین سامانۀ دیسک سخت (Disc Arrays) با ظرفیت‌های بالا را در خود جای می‌دهد. همانگونه که می‌دانیم امروزه «ذخیره‌سازی ابری» (Cloud Storage) به گرایش اصلی ذخیرۀ داده‌های بزرگ اینترنتی تبدیل شده است که سرورهای بزرگ این وظیفه را به عهده دارند. این ذخیره‌سازی‌های ابری در واقع مراکز داده بزرگ [روی زمین] هستند که هر شرکت در سراسر جهان چندین مرکز داده می‌سازد و اساساً با سامانه‌های دیسک‌های سخت مجهز هستند. و باز باید تأکید کرد که در آینده، دولت‌های دیجیتالی (E-Government) جای این دولت‌های آنالوگِ کنونی را خواهند گرفت و ذخیره‌سازی داده‌های مردم [زندگان و مردگان] باید برای سده‌ها تضمین شود. حال می‌توان تا حدودی تصور کرد که ما در آینده با چه مقدار از داده‌ در مقیاس جهانی روبرو خواهیم شد.

همانگونه که گفته شد یک شرکت ارائه‌دهندۀ ذخیره‌سازی ابری مجبور است برای حفظ داده‌های خود و امنیتِ درازمدتِ آنها چندین مرکز داده در سراسر جهان راه‌اندازی کند. این مراکز داده‌ها باید پیوسته داده‌های خود را همزمان‌سازی (synchronize) کنند و هیچ تفاوتی با هم نداشته باشند تا به هنگام خرابی به هر دلیل، داده‌ها از بین نروند. هر روزه – بدون آنکه کاربران اینترنت متوجه بشوند- یکی از این مراکز داده به دلایل گوناگونِ فنی از کار می‌افتد، بدون آنکه کاربران اینترنت متوجه شوند، زیرا بی‌درنگ یک مرکز دادۀ دیگر جایگزین مرکزِ از کار افتاده می‌شود. بنابراین، ذخیره‌سازی ابری بدان معناست که شرکت مربوطه باید چندین مرکز- آنهم در نقاط گوناگون جهان- بسازد و عملاً هر روز و هر ثانیه داده‌های آنها همسان‌ و همزمان‌سازی بشوند، تازه این ذخیره‌سازی داده‌های روزمره است که شما و من در تیک تاک، اینستاگرام، ایکس، فیس‌بوک، آمازون یا هر رسانه‌ی دیگری می‌نویسم، پاک می‌کنیم، تغییر می‌دهیم و ...

ولی با توجه به رشد مقادیر داده‌ها، این مراکزِ داده پیوسته در حال بزرگ شدن هستند و مصرفِ انرژی‌شان نیز هر روز بیشتر می‌شود. از این رو، کنسرن‌های تولیدِ ابزار ذخیره‌سازی به دنبالِ ابزارهایی هستند که هم کوچک، ارزان، سریع، با مصرف انرژی کم، تاب‌آور در شرایط بسیار سخت ولی در عین حال بتوانند مقادیر انبوهی از داده را در خود ذخیره کنند. در حال حاضر در فناوری ذخیره‌سازی (Storage Technology)، تلاش‌های گوناگونی صورت می‌گیرد از مهم‌ترین آنها کواترز، دی ان ای (DNA) و ابزار ذخیره پنج بُعدی سلیسی است. کواترز اساساً توسط پژوهشگران ژاپنی مورد آزمایش است و ابزار ذخیره‌سازی در شکل دی ان ای و ۵ بعدی سلیس توسط پژوهشگران و شرکت‌های اروپایی و آمریکای شمالی صورت می‌گیرد. اینها هنوز مراحل آزمایشگاهی خود را طی می‌کنند و برای این که به تولید انبوه و کاربرد روزانه برسند به زمان نسبتاً درازی نیاز دارند. برای نمونه، در ابزار ذخیره‌سازی ۵ بعدی می‌توان میلیون‌ها داده‌ها [چیزی مانند یک کتابخانۀ بسیار بزرگ] روی یک قرص شیشه‌ای با قطر ۲ سانتی‌متر ذخیره کرد و یا می‌توان تمام اطلاعات کنونی در اینترنتِ جهانی را در کمتر از دو مترمکعب دی ان ای ذخیره نمود. ابزار ذخیره‌سازی آینده یک هیبرید [ترکیب] از این انواع خواهد بود. ولی تا رسیدن به نسخۀ کاربردی این ابزارهای ذخیرسازی، ما به سالهای سال نیاز داریم، تازه پس از آن که به چنین فناوری‌هایی در تولید انبوه رسیدیم، آنگاه باید به تدریج داده‌های موجود که اساساً روی دیسک‌های سخت یا نوارهای مغناطیسی هستند روی ابزارهای ذخیره‌سازی جدید انتقال یابند.

جستجوگرها: سرعت خواندن‌ داده‌ها

با توجه به حجم بس‌ سُترگ داده‌ها این پرسش پیش می‌آید که اگر «من» یک پرسش داشته باشم، پرسش من چگونه پرداخته و چگونه موضوعات مربوط به آن مورد جستجو قرار می‌گیرند. میلیاردها داده در اینترنت وجود دارد: از فیزیک، ریاضی، بیوشیمی، فناوری نانو، علم مواد، نجوم، تاریخ، جامعه شناسی، فلسفه نظری، فلسفه عملی، داده‌ها دربارۀ کشورها، شهرهای کوچک و بزرگ، روستاها، دریاها و رودخانه‌ها و ... براستی پاسخِ پرسش‌های کاربر چگونه جستجو و پیدا می‌شوند؟

یکی از مهم‌ترین و سریع‌ترین جستجوگرهای قابل دسترس توسط شرکت آی بی ام (IBM) ساخته شده که نامش واتسون[۷] است. البته دقیق‌تر است بگوییم که این، یک درگاه[۸] (Interface) [IBM Watson Interface] است. این ابرکامپیوتر سرعتی بس‌شگفت‌انگیز دارد و می‌تواند در هر سه ثانیه ۲۰۰ میلیون صفحه را بخواند [حدود ۸۰ ترافلاپس (Teraflops)] و همزمان اطلاعات مربوط به پرسش را بیرون بکشد و طبقه‌بندی کند. البته این بدان معنا نیست که حالا تمامی اینترنت با همین سرعت کار می‌کند، این درگاه فعلاً در انحصار شرکت آی بی ام است و در آینده شرکت‌های دیگر نیز، بویژه در چین و اروپا، به عنوان رقیب وارد این حوزه خواهند شد، و باید هم بشوند. چنین ماشین‌های هوشمندی زمانی اهمیت‌شان روشن می‌شود که بدانیم روزی در آینده باید تمامی آرشیوهای کشورها، دیجیتالی شوند و در اختیار مردم قرار گیرند. برای نمونه، در حال حاضر شرکت‌های بزرگ، عمدتاً شرکت‌های ایتالیایی، مشغول دیجیتالی کردن آرشیو شهر ونیز هستند[۹]. در این آرشیو هزار ساله، از نامه‌های شخصی تا اسناد مربوط به دعواهای مدنی و کیفری، رخدادهای طبیعی، اسناد مربوط به جنگ‌ها، اسناد مربوط به حاکمان، نام‌های مأموران انتظامی و وظایف آنها، قراردهای اقتصادی و غیره وجود دارد. سالیان سال طول خواهد شد که این آرشیو دیجیتالی شود و در اختیار مردم قرار گیرد. شما در نظر بگیرید که بخش عمده این آرشیو با دستخط است [گاهی دستخط‌های بسیار بد و زشتِ میرزابنویس‌ها مانند محضرداران در ایران] به همین دلیل، نرم‌افزارهایی ساخته شده که بتوانند این دستخط‌های ناموزن و اجق‌وجق را بخوانند و همزمان به زبان دلخواهِ کاربر ترجمه نمایند.

نکات در بالا گفته شده نشان می‌دهد که ما انسان‌ها برای رسیدن به هوش فراگیر مصنوعی [سامانۀ ابرهوشمند] چه راه درازی در پیش رو داریم. در بخش دیگر دربارۀ پیش‌شرط‌های اقتصادی و اجتماعی ضروری برای تحققِ این سامانۀ ابرهوشمند خواهم نوشت.

ادامه دارد

بخش‌های پیشین:
* از میمون تا هوش مصنوعی (بخش یک)
* از میمون تا هوش مصنوعی (بخش دو)
* از میمون تا هوش مصنوعی (بخش سه)
* از میمون تا هوش مصنوعی (بخش چهار)
* از میمون تا هوش مصنوعی (بخش پنج)

—————————————————-
[۱] کل مصرف برق در آلمان که یکی از صنعتی‌ترین کشورهای جهان است در سال ۲۰۲۱، ۵۰۷ تراوات در ساعت بود.
[۲] و در اینجا باید روند صنعتی شدن کشورهای پیرامونی را در قارۀ آفریقا یا آسیا را نیز به مصرفِ انرژی جهانی در محاسبات گنجاند که به انرژی بسیار فراوانی نیاز دارد. 
[۳] در حال حاضر بزرگترین پارک‌های خورشیدی پنج تا هستند که عبارتند از: پارکِ خورشیدی بهادلا (Bhadla Solar Park) در هند با ۲.۲۵ گیگاوات، گولمودا (Golmud) در چین ۲.۲ گیگاوات، پاواگادا (Pavagada) در هند ۲.۰۵ گیگاوات، بنبان (Benban) در مصر ۱.۶۵ گیگاوات و پارک خورشیدی محمد بن رشید (Mohammad bin Rashid) در امارات متحده عربی با ۱.۶۳ گیگاوات. عربستان نیز هم اکنون طی یک قرارداد ۲۰۰ میلیارد دلاری با ژاپن در حال ساخت چنین پارک خورشیدی است. ولی این پارک‌ها هنوز باید مصرفِ انرژی خانه‌ها را تأمین نمایند تا مابقی انرژی‌ها در خدمت صنعت و هوش مصنوعی آینده قرار گیرند.
[۴] در حال حاضر در جنوب فرانسه نخستین رآکتور جوشش هسته‌ای به نام  International Thermonuclear Experimental Reactor (ITER) با سرمایۀ بین‌المللی در حال ساخت است. قرار است که تا ۲۰۳۵ اولین نتایج روشن شود. ولی برای استفاده کاربردی و روزانه آن هنوز به زمان بسیار بیشتری نیاز است.

[5] Maple = Microwave Array for Power transfer Low-orbit Experiment

[۶] پروفسور علی حاجی‌میری (زاده ۱۳۵۳ قزوین)، فوق لیسانس خود را در دانشگاه صنعتی شریف را گرفت، سپس دکترایش را از دانشگاه استنفورد دریافت کرد. در حال حاضر، در مؤسسه فناوری کالیفرنیا کار می‌کند و رئیس پروژه مپل است.
[۷] این درگاه به نام مؤسس آی بی ام، Thomas J. Watson نامگذاری شده است.
[۸] «درگاه» (Interface / Schnittstelle) یک آستانه میان جستجوگرها در اینترنت مانند گوگل و بانک‌های اطلاعاتی است. در گوگل یک پرسش یا استعلام از سوی کاربر درج می‌گردد و درگاه واتسون هدایت می‌شود و این درگاه با هوش مصنوعی خود می‌تواند با سرعتی بس بالا – ۸۰ ترافلاپس- صفحه‌خوانی کند و همزمان طبقه‌بندی و نتیجه‌گیری نماید.
[۹] اینکه اگر همۀ آرشیوهای آنالوگ [روی کاغذ] روی زمین به دیجیتال تبدیل شوند چه حجمی از داده خواهد بود تصورش ناممکن است.



نظر خوانندگان:


■ آقای بی‌نیاز عزیز.
این بخش از مقاله شما، مثل بخش‌های قبل جالب و بسیار خواندنی بود. البته باید توجه داشت که روند مصرف برق برای سیستم‌های کامپیوتری (با توان یا ظرفیت ثابت) مدام کاهش پیدا می‌کند، اما با افزایش ظرفیت، همانطور که نوشته‌اید مصرف برق زیادتر می‌شود. موضوع اصلی اما چگونگی پردازش داده‌هاست. یعنی اینکه برای نوشتن الگوریتم نرم‌افزار، چه استانداردهایی وجود دارد یا به وجود خواهد آمد؟ آیا ممکن به سوال مشابه، با استاندارد اروپایی یا چینی جواب‌های متفاوت (حتی مخالف) بدست آید؟
ارادتمند. رضا قنبری. آلمان