ايران امروز

نشريه خبری سياسی الكترونيك

Iran Emrooz (iranian political online magazine)

iran-emrooz.net | Tue, 06.05.2025, 20:27
نگاهی به نکسوس، آخرین کتاب یووال هراری

س.ساسان

نکسوس؛ افزایش قدرت افسانه‌سازی و کنترل اطلاعات در زمان هوش مصنوعی

انسان‌ها برخلاف حیوانات، به دلیل توانایی خود در داستان‌سرایی و ایجاد باورهای مشترک، توانسته‌اند تاریخ ما را بسازند و تمدن‌های بزرگ را به وجود آورند. دین، ملت/ملیت، اقتصاد، پول… همگی باورهای مشترکی است که ما خودمان ساختیم و پذیرفتیم. شما تمام شامپانزه‌های دنیا را جمع کنید، و به آنها بگویید که اگر این یا آن کار را انجام دهید به بهشت می‌روید و بهشت جایی است پراز موز و نارگیل. مطمئن باشید هیچکدام به حرف شما گوش نمی‌دهند و این داستان را نمی‌پذیرند. اما انسانها در طول تاریخ نشان داده‌اند که شبیه این داستان را به راحتی قبول می‌کنند.

نکسوس، همان ایده‌ی داستان‌ سازی و ایجاد باورهای مشترک را در زمان سیطره هوش مصنوعی، پی می‌گیرد. این کتاب، همزمان هشداری جدی است در مورد چالش‌های جدید، خطرات و تهدیدها!


(هر دو تصویر در این نوشته، با طراحی و سفارش نویسنده، توسط هوش مصنوعی خلق شده است)

هراری با سه کتاب ارزشمند؛ - انسان خردمند: تاریخ مختصر بشر، - انسان خداگونه: تاریخ مختصر آینده و - ۲۱ درس برای قرن ۲۱، به یکی از پرخواننده‌ترین نویسندگان در میان علاقه‌مندان به تاریخ گذشته، حال و آینده تبدیل شده است. او به زبانی ساده و پر از آموزه‌های تاریخی شیرین و دلپذیر، خواننده را به دنبال خود می‌کشد و پیام و نگاه خود را در مورد دگرگونی تاریخی انسان به خواننده انتقال می‌دهد.

به باور او انسان‌ها برخلاف حیوانات، به دلیل توانایی خود در داستان‌سرایی و ایجاد باورهای مشترک، توانسته‌اند تمدن‌های بزرگ را به وجود آورند. او با تمرکز بر توان افسانه سازی انسانها بر این باور است که اساسی ترین مفاهیم موجود مثل دین، ملت/ملیت، اقتصاد، پول… همگی باورهای مشترکی است که ما خودمان ساختیم و برای دیگران روایت کردیم. آنقدر روایت کردیم تا به ادراک عمومی و جهانشمول تبدیل شد. او همچنین به بررسی چالش‌های سیاسی، اجتماعی و اقتصادی قرن بیست و یکم می‌پردازد. مسائلی مانند جهانی شدن، نابرابری، تروریسم،​​تغییرات اقلیمی و البته تاثیر فناوری‌های جدید بر این چالش‌ها.

هوش مصنوعی، ابزاری در خدمت خلق و پخش افسانه‌های سفارشی؟

کتاب نکسوس هراری بر همان پایه قبلی، یعنی نقش افسانه‌سازی و روایت‌ها استوار است، اما اینبار با تمرکز بیشتر بر هوش مصنوعی و توانایی آن در افسانه سازی و کنترل جریان اطلاعات.

«نکسوس» به بررسی چگونگی شکل‌گیری و تکامل شبکه‌های اطلاعاتی از آغاز تاریخ بشر تا به امروز می‌پردازد.

هراری بر این باور است که، اطلاعات نقطه پیوند (محل اتصال/ Nexus) انسانها به یکدیگر است. اطلاعات است که واقعیت‌ها را خلق می‌کند. کسی که اطلاعات را در کنترل دارد، قدرت را در کنترل دارد. در طول تاریخ، اشکال گوناگون شبکه‌های اطلاعاتی، از زبان ، نوشتار، چاپ گرفته تا اینترنت و هوش مصنوعی، جوامع، فرهنگ‌ها و حتی خود انسان‌ها را تغییر داده‌اند.

هراری از سه انقلاب بزرگ اطلاعاتی در تاریخ بشرنام می‌برد: انقلاب شناختی(ظهور زبان)(Cognitive Revolution)، انقلاب نوشتاری(Writing Revolution) و انقلاب دیجیتالی (Digital Revolution). او تاثیرات هر یک از این انقلاب‌ها را بر زندگی انسان‌ها و جوامع بررسی می‌کند.

افسانه‌پردازی انسانها، از حدود ۷۰ هزار سال پیش با پیدایش زبان آغاز شد. این تحول، باعث همکاری گروه‌های بزرگ انسانی و پایه‌گذار جوامع امروزی شد. انقلاب نوشتاری ، انسان‌ها را قادر ساخت، اطلاعات را ذخیره و و به دور دست منتقل کنند. امپراتوری‌ها، سیستم مالی … و قوانین در این دوره آغاز شد. در قرن ۲۱ با انقلاب دیجیتالی و اکنون هوش مصنوعی، نه تنها پخش و دسترسی به اطلاعات ساده تر شد، بلکه خلق داستان‌ها و افسانه سازی هم به شکل بی سابقه‌ای فزونی گرفت. این انقلاب روش‌های ارتباط گیری، سیاست گذاری، اقتصاد و حتی هویت انسان‌ها را تغییر داده است.

یوال هراری امکانات و قابلیت‌های ایجاد شده بوسیله هوش مصنوعی را از قلم نمی‌اندازد. قابلیت‌های بزرگ AI در زمینه پیشرفت علم و پزشکی، رهانیدن انسان از کارهای سخت و یکنواخت، پیشرفت‌های بزرگ اقتصادی… و آموزش. اما چالش‌ها و خطرات بزرگ تری را هم می‌بیند که سوی بدبینی را در او تقویت می‌کند.

اگر در گذشته متون مقدس و ایدئولوژی‌های سیاسی جوامع را کنترل می‌کردند امروز این خطر از جانب رسانه‌ها و شبکه‌های اجتماعی تحمیل می‌شود. هوش مصنوعی ساخت و پخش افسانه‌ها را در دست می‌گیرد و مردم به شبکه‌های اجتماعی بیش از خرد و دانش خود اعتماد می‌کنند. هراری بر این باور است که تهدید حریم خصوصی، خطری جدی است اما در مقابل انتشار و پذیرش اطلاعات نادرست خطر بسیار کوچک تری به نظر می‌رسد.

بوجود آمدن یک “طبقه بی مصرف بدرد نخور” از نظر اقتصادی “useless class”، به دلیل جانشینی هوش مصنوعی به جای انسان از دیگر خطراتی است که هراری در مورد آن هشدار می‌دهد.

نظارت گسترده بیومتریک رفتاری بر مردم و اعمال دیکتاتوری و یا نظارت دیجیتالی توسط یک بخش نخبه در جامعه می‌تواند به چالش خطرناک عصر اطلاعات تبدیل شود. این پدیده در مقیاسی آزمایشی هم اکنون در چین رواج دارد.

این فقط بخشی از چالش‌ها و تهدید‌های محتمل بود. هراری هریک از این پدیده‌ها را گسترش می‌دهد و به زبانی ساده وبا روایت‌های گوناگون، خواننده را تا به آخر به دنبال خود می‌برد.

چه باید کرد؟

روشن است که نگاه هراری، خیلی خوش بینانه نیست. اما همزمان بر این باور است که در صورت شکل گیری یک استراتژی مشترک و همکاری جهانی، همه‌ی این چالش‌ها و تهدید‌ها را می‌توان به امکان تبدیل کرد. او بر چند نکته تاکید دارد.

شکل‌گیری قوانین و مقررات بین‌المللی

● کشورها باید چارچوب‌های حقوقی جهان شمولی ایجاد کنند تا هوش مصنوعی در اختیار نهادهای محدود و سرکوبگر قرار نگیرد.
● توافق‌های بین‌المللی برای ممنوعیت سلاح‌های هوشمند خودکار، ضروری است.
● و همینطور ایجاد قوانینی برای شفافیت الگوریتم‌ها، بانک‌های اطلاعاتی و جلوگیری از سوءاستفاده دولت‌ها و شرکت‌ها.

آموزش

● با توجه به تهدید بیکاری گسترده، آموزش مردم برای یادگیری مهارت‌های خلاقانه‌ای که هوش مصنوعی قادر به جایگزینی آن‌ها نیست، ضروری است.
● مدارس باید تفکر انتقادی و خودآگاهی دیجیتال را تقویت کنند تا مردم در برابر دادستان سازی‌های سفارشی و دستکاری اطلاعات، توانا باشند.

توزیع عادلانه قدرت

● داده‌ها نباید فقط در اختیار چند شرکت یا دولت خاص باشند، بلکه باید به‌ صورت عادلانه بین جوامع توزیع شوند.
● هراری پیشنهاد می‌دهد که داده‌ها به‌عنوان یک منبع عمومی مدیریت شوند، نه یک دارایی خصوصی که فقط به نفع نخبگان اقتصادی باشد.

همکاری جهانی به جای رقابت مخرب

● اگر کشورها به رقابت تسلیحاتی و اقتصادی بر سر هوش مصنوعی ادامه دهند، خطرات افزایش می‌یابد. او پیشنهاد می‌کند که سازمان‌های بین‌المللی برای نظارت و کنترل پیشرفت‌های هوش مصنوعی ایجاد شوند.

در مجموع، هراری معتقد است که بدون یک گفتگوی جهانی و سیاست‌ گذاری مشترک وعادلانه، هوش مصنوعی می‌تواند به ابزاری برای سلطه نخبگان تبدیل شود. او علیرغم بدبینی نسبتآ زیاد، بر این باور است که در صورت مدیریت درست، هوش مصنوعی می‌تواند فرصت‌هایی بی‌نظیر برای بشریت به ارمغان بیاورد.

سخن پایانی

در مجموع اندیشمندان در زمینه هوش مصنوعی را میتوان به دو گروه تقسیم کرد:

۱- آنهایی که بیشتر پیشینه علمی-تکنیکی دارند مانند مکس تگمارک(Max Tegmark)، نیک بوستروم(Nick Bostrom) … و الایزر یودکوسکی(Eliezer Yudkowsky) این دسته، توانایی‌ها و قابلیت‌های تکنیکی هوش مصنوعی را در حال و آینده بررسی میکنند. آنها کوشش می‌کنند به این گونه سوالات پاسخ دهند: آیا ایجاد سیستم عصبی شبیه انسان ممکن است، آگاهی و خودآگاهی چطور؟ آیا رسیدن به ابر هوش (مصنوعی) (Superintelligence) ممکن است؟ خطر نابودی بشریت توسط ابر هوش چقدر جدی است و اینکه چه باید کرد؟ جالب است که بدانیم اغلب آنها، از نظر تکنیکی، کم و بیش پاسخ یکسانی به این سوال‌ها می‌دهند. هر چند که در مورد زمان‌بندی توافقی نیست.

۲- گروه دوم اندیشمندان، آنهایی هستند که بیشتر پیشینه تاریخ، فلسفه و اخلاق دارند، و از این منظر به آینده هوش مصنوعی نگاه میکنند. تمرکز این گروه بیش از هرچیز بر عدالت، اخلاق، حریم خصوصی، … و تمرکز قدرت از طریق انحصار اطلاعات است. یووال هراری، شوشانا زوبوف Shoshana Zuboff، تیمنیت گبرو Timnit Gebru به این گروه تعلق دارند.

اندیشمندان هر دو گروه بر پیامدهای بسیار خطرناک توسعه هوش مصنوعی اشتراک نظر دارند. بنابراین در لزوم قانون مند کردن و نظارت دموکراتیک بر آن هم توافق وجود دارد. از دیگر اقدامات ضروری در این زمینه، شفاف سازی و دخالت دادن اندیشمندان و کشورهای گوناگون در پروسه گسترش هوش مصنوعی است.

پیش بردن اهداف بالا چندان ساده به نظر نمی‌رسد، آنهم با ساز و کاری که هم اکنون در جهان و روابط بین‌الملل جاری است! اگر تا دیروز کشمکش بین چین، روسیه و غرب بود که سیاست گذاری مشترک را دشوار می‌کرد، امروز شکاف جدی بین آمریکا و دیگر شرکای تجاری-سیاسی هم به آن افزوده شده است. رسیدن به اهداف بالا از طرفی نیازمند درک و فهم مشترک از شرایط و میزان خطرات است. و از طرف دیگر نیازمند خواستی همگانی برای اقدام مشترک. متاسفانه به نظر نمی‌رسد که در کوتاه مدت، شاهد چنین شرایطی باشیم. دستاوردهای تکنیکی پرشتاب پیش می‌روند. امیدوارم عمر شرایط کنونی، بی خردی و سودجویی‌های جدید، کوتاه باشد.

***

چند نکته و توصیه:

۱- کتاب‌های یووال نوح هراری در مورد تاریخ بشریت، تحول‌های اجتماعی و فرهنگی، چالش‌های اخلاقی و فلسفی و تأثیر فناوری بر انسان‌ها است.
۲- تقریبا تمامی کتابهای هراری از جمله نکسوس به فارسی ترجمه شده است. فایل‌های صوتی اغلب این کتابها نیز قابل دسترسی است.
۳- ایده‌ی اصلی او، داستان سازی ما انسانهاست و اینکه تمامی باورهای ما مثل، مذهب، ملت، پول، حقوق بشر… ساخته و پرداخته خود ماست و برای این خلق شده که جوامع انسانی بتوانند با هم تعامل کنند و به صورت جمعی زندگی کنند… می‌توان با این ایده‌ی اصلی او هم کاملا همراه نبود. اما این از بار آموزشی کتاب‌های او و تفکر برانگیز بودن آنها، کم نمی‌کند.

بنابراین اگر علاقه دارید در مورد گذشته، حال و آینده بشریت بدانید، آنهم با زبانی شیرین و پر از روایات گیرا، کتابهای هراری برای شما سودمند خواهد بود.

Yuval Noah Harari، Nexus
Max Tegmark، Life 3.0
Nick Bostrom، Superintelligence: Paths، Dangers، Strategies
Eliezer Yudkowsky، If Anyone Builds It، Everyone Dies: Why Superhuman AI Would Kill Us
Shoshana Zuboff، The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power

 



نظر خوانندگان:


■ با تشکر از زحمتی که برای تهیه این مقاله و معرفی آخرین کتاب نوح هراری کشیده‌اید. کتاب اول او انسان خردمند در نوع خود بی‌نظیر بود و من چندین بار این کتاب را به زبان‌های مختلف خواندم و هنوز هم مایل هستم دوباره این کتاب را بخوانم. دو کتاب بعدی او هم مطلب زیادی برای خواندن و آموختن داشتند اما کتاب نکسوس او را همان روزهای اول از اینترنت به انگلیسی و بعد آلمانی تهیه کردم لیکن هرچه کردم نتوانستم بیش از بخش کوچکی از کتاب را بخوانم. انتظار من از نوح هراری برآورده نشد با این کتاب آخرش. در هر حال از شما برای تهیه این مطلب باز هم سپاسگزارم.
علی‌محمد طباطبایی


■ مایلم چند نکته دیگر انتقادی به یووال نوح هراری اضافه کنم. گفتم که کتاب اول ایشان انسان خردمند یک شاهکار است و واقعاً همین طور است. اما ایشان مدتی بعد تصمیم گرفت آن کتاب را به صورت کمیک استریپ در آورد. این کتاب در دو جلد منتشر شد که من هر دو جلد پر حجم را از یک سایت روسی به زبان انگلیسی دانلود کردم و خواندم و البته تا حدی با کتاب اصلی متفاوت بود. اما بعد از مدتی این کمیک استریپ‌ها به فارسی هم ترجمه شدند و من آنها را هم دانلود کرده و خواندم اما این بار به نظرم در چند مورد یووال نوح هراری زیادی‌روی کرده بود که در ترجمه فارسی بهتر درک کردم. یکی مقصر دانستن انسان برای گذار از دوره شکارگر و جمع اوری کننده خوراک به دوره کشاورزی که کشاورزی را ایشان فریب بزرگ نام گذاشته. دیگر مقصر دانستن انسان‌های اولیه پیش از تمدن و تاریخ در نابودی بعضی از پستانداران و حیوانات شکاری. ما تا چه حد می‌توانیم انسان‌های اولیه را که کمترین دانش و آگاهی از جهان نداشتند برای کارهای خود که جهت بقاء در سیاره زمین انجام می‌شد مقصر بدانیم؟
در دو جلد کمیک استریپ ایشان پرونده قضایی برای انسان اولیه باز کرده و آنها را مورد تعقیب قضایی قرار می‌دهد. اما مسئله آخر این که در سال ۱۴۰۱ که من در صفحه اینستاگرام ایشان عضو بودم مرتب ایرانیانی می‌آمدند و با انگلیسی فصیح ایشان را مخاطب قرار می‌دادند که چرا در باره رویدادهای دلخراش ایران سکوت کرده است. هر چه گذشت جناب هراری نه جوابی به این کامنت‌ها داد نه موضع گیری در برابر رویدادهای داخل ایران کرد به طوری که لحن کامنت‌ها یواش یواش خصمانه شدند و من هم آن صفحه را ترک کردم. از ایشان انتظار بیشتری می‌رفت.
علی محمد طباطبایی


■ جناب طباطبایی، با سپاس از بازخورد دلگرم‌کننده شما.
من با ارزیابی شما در مورد سه کتاب اول هراری کم و بیش همراه هستم. اولی بسیار خوب بود, دومی خوب بود, “۲۱ درس...” تا حدودی تکراری بود. نکسوس در زمانی منتشر می شود که ۱- پدیده هوش مصنوعی همگانی میشود. ۲- تکامل آن شتاب چشمگیر می‌گیرد. ۳- این هر دو, صدها پرسش در ذهن مردم عادی ایجاد می‌کنند و یا باید بکنند. نکسوس کوشش می‌کند هم پرسش‌های بیشتر ایجاد کند و هم به پاره‌ای از آنها جواب دهد. روی سخن او، مردم عادی و البته علاقه‌مند و محتملا پرسشگر است. به باور من نکسوس کتاب بسیار خوبی است برای عموم مردم, که پرسشگر هم هستند! کتاب اول هراری را من می‌توانم ۱۰ سال بعد هم به دوستداران یادگیری پیشنهاد کنم، ولی نکسوس را نه! هدف من در بالا, متقاعد کردن شما نبود. روشن کردن نگاه خودم بود.
با سپاس دوباره از شما. ساسان


■ در هر حال کاری که شما در اینجا برای معرفی یک کتاب جدید انجام دادید بسیار ارزشمند و قابل تقدیر است. من نکسوس را با کتاب اول او مقایسه کردم و انتظارم برآورده نشد ولی تردیدی نیست که این اثر جدید یووال هراری برای دوستداران هوش مصنوعی و دشواری‌هایی که شاید روزی هوش مصنوعی برای جامعه بشری ایجاد کند کتابی ارزنده و راهنما خواهد بود.
آرزومند موفقیت بیشتر شما / علی محمد طباطبایی