شنبه ۲۱ تير ۱۴۰۴ -
Saturday 12 July 2025
|
ايران امروز |
فارن افرز / ۷ جولای ۲۰۲۵
زمانی که کارشناسان در مورد رابطه جوانان با اطلاعات آنلاین ابراز نگرانی میکنند، معمولاً فرضشان بر این است که جوانان به اندازه بزرگسالان سواد رسانهای ندارند. اما تحقیقات مردمنگارانهای که توسط جیگساو — مرکز رشد فناوری گوگل — انجام شده است، واقعیتی پیچیدهتر و ظریفتر را آشکار میکند: اعضای نسل زد، که عموماً متولدین پس از سال ۱۹۹۷ و قبل از ۲۰۱۲ محسوب میشوند، استراتژیهای متمایز و متفاوتی برای ارزیابی اطلاعات آنلاین توسعه دادهاند که هر فرد بالای ۳۰ سال را گیج خواهد کرد. آنها اخبار را به روش بزرگسالان مصرف نمیکنند؛ یعنی ابتدا تیتر و سپس کل مطلب را نمیخوانند. آنها معمولاً ابتدا تیترها را میخوانند، اما سپس به نظرات آنلاین مرتبط با مقاله میپرند و تنها پس از آن وارد بدنه اصلی خبر میشوند. این گرایش عجیب روشنگر است. جوانان صرفاً به دلیل تأیید یک متخصص، یک ویراستار ناظر، یا سایر مراجع رسمی، به اعتبار یک خبر اعتماد نمیکنند؛ آنها ترجیح میدهند برای ارزیابی قابل اعتماد بودن خبر، با جمعی از همتایان خود مشورت کنند. حتی در حالی که جوانان به نهادها و شخصیتهای صاحب قدرت بیاعتماد هستند، عصر وب اجتماعی به آنها اجازه میدهد تا اعتماد خود را به جمعیت ناشناس بسپارند.
یک مطالعه بعدی جیگساو در تابستان ۲۰۲۳، پس از انتشار برنامه هوش مصنوعی چتجیپیتی، نحوه استفاده اعضای نسل زد در هند و ایالات متحده از چتباتهای هوش مصنوعی را بررسی کرد. این مطالعه نشان داد که جوانان به سرعت برای مشاوره پزشکی، مشاوره روابط، و نکات مربوط به سهام به چتباتها مراجعه میکردند، زیرا فکر میکردند هوش مصنوعی به راحتی در دسترس است، آنها را قضاوت نمیکند و به نیازهای شخصی آنها پاسخ میدهد — و از بسیاری جهات، مشاوره هوش مصنوعی بهتر از مشاورهای بود که از انسانها دریافت میکردند. در مطالعهای دیگر، شرکت مشاورهای اولیور وایمن الگوی مشابهی را یافت: حدود ۳۹ درصد از کارمندان نسل زد در سراسر جهان ترجیح میدهند به جای همکار یا مدیر انسانی، یک همکار یا مدیر هوش مصنوعی داشته باشند؛ برای کارگران نسل زد در ایالات متحده، این رقم ۳۶ درصد است. یک چهارم کل کارمندان در ایالات متحده نیز همین احساس را دارند، که نشان میدهد این نگرشها تنها مختص جوانان نیست.
چنین یافتههایی مفاهیم رایج در مورد اهمیت و قداست تعاملات بین فردی را به چالش میکشند. بسیاری از ناظران مسنتر از ظهور چتباتها گلایه میکنند و این فناوری جدید را مقصر تکهتکه کردن افراد و بیگانه کردن آنها از جامعه بزرگتر، تشویق به افزایش فاصله بین افراد و از بین رفتن احترام به مراجع میدانند. اما از زاویهای دیگر، رفتار و ترجیحات نسل زد به چیز دیگری نیز اشاره دارد: بازپیکربندی اعتماد که حاوی جوانههایی از امید است.
تحلیلگران در مورد اعتماد به اشتباه فکر میکنند. دیدگاه غالب بر این است که اعتماد به نهادهای اجتماعی در کشورهای غربی امروز در حال فروپاشی است؛ به عنوان مثال، تنها دو درصد از آمریکاییها میگویند به کنگره اعتماد دارند، در مقایسه با ۷۷ درصد در شش دهه پیش؛ اگرچه ۵۵ درصد از آمریکاییها در سال ۱۹۹۹ به رسانهها اعتماد داشتند، امروزه تنها ۳۲ درصد این کار را انجام میدهند. در واقع، اوایل امسال، کریستن سولتیس اندرسون، نظرسنج، نتیجه گرفت که «آنچه ما [آمریکاییها] را هر چه بیشتر متحد میکند، همان چیزی است که به آن بیاعتمادیم.»
اما چنین دادههایی تنها نیمی از داستان را روایت میکنند. اگر از دریچه نظرسنجیهای سنتی قرن بیستم که از مردم میپرسد در مورد نهادها و شخصیتهای صاحب قدرت چه احساسی دارند، نگاه کنیم، تصویر وخیم به نظر میرسد. اما اگر از دریچه مردمشناسی یا قومنگاری نگاه کنیم — ردیابی آنچه مردم انجام میدهند نه آنچه صرفاً به نظرسنجها میگویند — تصویر بسیار متفاوتی پدیدار میشود. اعتماد لزوماً در دنیای مدرن ناپدید نمیشود؛ بلکه در حال مهاجرت است. با هر نوآوری فناورانه جدید، مردم از ساختارهای سنتی قدرت دور شده و به سمت جمعیت روی میآورند، دنیای بیشکل اما بسیار واقعی از افراد و اطلاعات که تنها با چند ضربه انگشت فاصله دارند.
این تغییر خطرات بزرگی را به همراه دارد؛ مادر نوجوانی اهل فلوریدا که در سال ۲۰۲۴ خودکشی کرد، شکایتی را علیه یک شرکت هوش مصنوعی تنظیم کرده و چتباتهای آن را متهم کرده است که پسرش را به خودکشی تشویق کردهاند. اما این تغییر میتواند مزایایی نیز به ارمغان بیاورد. اگرچه افرادی که از بومیان دیجیتال نیستند، ممکن است اعتماد به یک ربات را پرخطر بدانند، اما واقعیت این است که بسیاری از اعضای نسل زد، اعتماد به مراجع قدرت انسانی را به همان اندازه (یا حتی پرخطرتر) میدانند. اگر ابزارهای هوش مصنوعی با دقت طراحی شوند، پتانسیل کمک به تعاملات بین فردی را دارند، نه آسیب رساندن به آنها: آنها میتوانند به عنوان میانجی عمل کرده و به گروههای قطبیشده کمک کنند تا بهتر با یکدیگر ارتباط برقرار کنند؛ آنها میتوانند به طور بالقوه نظریههای توطئه را مؤثرتر از مراجع انسانی خنثی کنند؛ و همچنین میتوانند حس عاملیت را به افرادی که به کارشناسان انسانی مشکوک هستند، ببخشند. چالش پیش روی سیاستگذاران، شهروندان و شرکتهای فناوری این است که ماهیت در حال تکامل اعتماد را بشناسند و سپس ابزارها و سیاستهای هوش مصنوعی را در پاسخ به این تحول طراحی کنند. نسلهای جوان مانند بزرگسالان خود عمل نخواهند کرد و نادیده گرفتن تغییر عظیمی که آنها در حال ایجاد آن هستند، عاقلانه نیست.
سقوط اعتماد
اعتماد یک نیاز اساسی انسانی است: این نیاز، افراد و گروهها را به هم پیوند میدهد و بنیاد دموکراسی، بازارها و بیشتر جنبههای زندگی اجتماعی امروز را تشکیل میدهد. اعتماد به چندین شکل عمل میکند. اولین و سادهترین نوع اعتماد، اعتماد بین افراد است، همان دانش رو در رو که اغلب گروههای کوچک را از طریق پیوندهای شخصی مستقیم به هم متصل میکند. این را میتوان ”اعتماد از طریق تماس چشمی” نامید. این نوع اعتماد در بیشتر محیطهای غیرصنعتی (از نوعی که اغلب توسط مردمشناسان مطالعه میشود) و همچنین در جهان صنعتی (در میان گروههای دوستان، همکاران، همکلاسیها و اعضای خانواده) یافت میشود.
با این حال، زمانی که گروهها بزرگ میشوند، تعاملات رو در رو ناکافی میشوند. همانطور که رابین دانبار، زیستشناس تکاملی، اشاره کرده است، تعداد افرادی که مغز انسان میتواند به طور واقعی بشناسد، محدود است؛ دانبار این تعداد را حدود ۱۵۰ نفر تخمین زد. ”اعتماد عمودی” نوآوری بزرگ هزارههای اخیر بود که به جوامع بزرگتر اجازه داد تا از طریق نهادهایی مانند دولتها، بازارهای سرمایه، نهادهای دانشگاهی و مذاهب سازمانیافته عمل کنند. این سیستمهای مبتنی بر قوانین، جمعی، هنجارگرا و تخصیصدهنده منابع، شکل و جهتگیری اعتماد مردم را تعیین میکنند.
دیجیتالی شدن جامعه در دو دهه گذشته، یک تغییر پارادایمی جدید را فراتر از اعتماد از طریق تماس چشمی و اعتماد عمودی، به سمت آنچه راشل باتسمن، دانشمند علوم اجتماعی، ”اعتماد توزیعشده” یا تعاملات گسترده همتا به همتا مینامد، ممکن ساخته است. این به دلیل این است که اینترنت امکان تعامل بین گروهها را بدون تماس چشمی فراهم میکند. برای اولین بار، غریبههای کامل میتوانند برای سفر از طریق برنامههایی مانند ایر بیانبی، برای تجارت از طریق ایبی، برای سرگرم کردن یکدیگر با انجام بازیهای ویدیویی چندنفره مانند فورتنایت، و حتی برای یافتن عشق از طریق سایتهایی مانند مچ.کام، با یکدیگر هماهنگ شوند.
برای برخی، این ارتباطات ممکن است غیرقابل اعتماد به نظر برسند، زیرا ایجاد هویتهای دیجیتال جعلی آسان است و هیچ مرجع واحدی برای تحمیل و اجرای قوانین آنلاین وجود ندارد. اما بسیاری از مردم با این وجود طوری عمل میکنند که گویی به جمعیت اعتماد دارند، تا حدی به این دلیل که مکانیزمهایی برای تقویت اعتماد پدید آمدهاند، مانند پروفایلهای رسانههای اجتماعی، ”دوستیابی”، ابزارهای تأیید جمعی و نظرات همتایان آنلاین که نوعی نظارت را ارائه میدهند. برنامه اشتراکگذاری سفر اوبر را در نظر بگیرید. دو دهه پیش، ساخت یک سرویس تاکسی که غریبهها را تشویق به سوار شدن به اتومبیلهای شخصی یکدیگر کند، غیرقابل تصور به نظر میرسید؛ مردم به این شکل به غریبهها اعتماد نمیکردند. اما امروز، میلیونها نفر این کار را انجام میدهند، نه تنها به این دلیل که مردم به اوبر به عنوان یک نهاد اعتماد دارند، بلکه به دلیل اینکه سیستم رتبهبندی همتا به همتا – نظارت جمعی – هم به مسافران و هم به رانندگان اطمینان خاطر میدهد. با گذشت زمان و با انگیزه فناوری جدید، الگوهای اعتماد میتوانند تغییر کنند.
بدون قضاوت
هوش مصنوعی پیچیدگی جدیدی به این روایت میافزاید، پیچیدگیای که میتواند به عنوان شکلی نو از اعتماد درک شود. این فناوری مدتهاست که بیسر و صدا در زندگی روزمره ما، در ابزارهایی مانند غلطگیر املایی و فیلترهای اسپم، جای گرفته است. اما ظهور اخیر هوش مصنوعی مولد (Generative AI) نشاندهنده یک تغییر متمایز است. سیستمهای هوش مصنوعی اکنون از استدلال پیچیده برخوردارند و میتوانند به عنوان عامل عمل کنند و وظایف پیچیده را به طور مستقل انجام دهند. این موضوع برای برخی ترسناک به نظر میرسد؛ در واقع، یک نظرسنجی از پیو نشان میدهد که تنها ۲۴ درصد از آمریکاییها فکر میکنند هوش مصنوعی برایشان مفید خواهد بود، و ۴۳ درصد انتظار دارند که «به آنها آسیب» برساند.
اما نگرش آمریکاییها نسبت به هوش مصنوعی به طور جهانی مشترک نیست. یک نظرسنجی ایپسوس در سال ۲۰۲۴ نشان داد که اگرچه حدود دوسوم بزرگسالان در استرالیا، کانادا، هند، بریتانیا و ایالات متحده موافق بودند که هوش مصنوعی «آنها را مضطرب میکند»، تنها ۲۹ درصد از بزرگسالان ژاپنی این دیدگاه را داشتند، و تنها حدود ۴۰ درصد از بزرگسالان در اندونزی، لهستان و کره جنوبی نیز همین نظر را داشتند. و اگرچه تنها حدود یکسوم افراد در کانادا، بریتانیا و ایالات متحده موافق بودند که از هوش مصنوعی هیجانزده هستند، تقریباً نیمی از افراد در ژاپن و سهچهارم در کره جنوبی و اندونزی این هیجان را ابراز کردند.
در همین حال، اگرچه مردم در اروپا و آمریکای شمالی به نظرسنجها میگویند که از هوش مصنوعی هراس دارند، اما دائماً از آن برای کارهای پیچیده در زندگی خود استفاده میکنند، مانند مسیریابی با نقشهها، شناسایی اقلام هنگام خرید، و تنظیم دقیق نوشتار. راحتی یکی از دلایل این امر است: دسترسی به یک پزشک انسانی ممکن است زمان زیادی ببرد، اما رباتهای هوش مصنوعی همیشه در دسترس هستند. شخصیسازی دلیل دیگری است. در نسلهای قبل، مصرفکنندگان تمایل داشتند خدمات «یک اندازه برای همه» را بپذیرند. اما در قرن بیست و یکم، دیجیتالی شدن به افراد امکان داده است تا انتخابهای شخصیتری در دنیای مصرفکننده داشته باشند، چه در زمینه موسیقی، رسانه یا غذا. رباتهای هوش مصنوعی به این میل فزاینده به شخصیسازی پاسخ میدهند و آن را تشویق میکنند.
یک عامل دیگر، و غیرمعمولتر، حریم خصوصی و بیطرفی است. در سالهای اخیر، نگرانی گستردهای در غرب وجود داشته است که ابزارهای هوش مصنوعی دادههای شخصی را «سرقت» میکنند یا با سوگیری عمل میکنند. این ممکن است گاهی موجه باشد. با این حال، تحقیقات قومنگارانه نشان میدهد که گروهی از کاربران ابزارهای هوش مصنوعی را دقیقاً به این دلیل ترجیح میدهند که «بیطرفتر»، کمتر کنترلکننده، و کمتر مزاحم از انسانها به نظر میرسند. یکی از افراد نسل زد که توسط جیگساو مورد مصاحبه قرار گرفته بود، تمایل خود به صحبت با هوش مصنوعی را با صراحت توضیح داد: «چتبات نمیتواند من را «کنار بگذارد» (لغو کند)!»
یک مطالعه اخیر دیگر در مورد افرادی که به تئوریهای توطئه اعتقاد دارند، نشان داد که آنها بسیار بیشتر تمایل داشتند باورهای خود را با یک ربات به اشتراک بگذارند تا با اعضای خانواده یا مراجع سنتی، حتی زمانی که رباتها ایدههای آنها را به چالش میکشیدند. این موضوع یک راه را نشان میدهد که در آن تعاملات انسان-ماشین میتواند بر مکانیسمهای اعتماد از طریق تماس چشمی و اعتماد عمودی غلبه کند. همانطور که یک نفر به محققان گفت: «این اولین بار است که پاسخی دریافت کردهام که واقعاً منطقی و معقول بود.» برای افرادی که احساس به حاشیهرانده شدن، ناتوانی یا قطع ارتباط با نخبگان را دارند — مانند بسیاری از افراد نسل زد — رباتها کمتر از انسانها قضاوتگر به نظر میرسند و در نتیجه عاملیت بیشتری به کاربران خود میدهند. شاید به شکلی غیرعادی، این امر باعث میشود اعتماد کردن به آنها آسانتر باشد.
از هال تا هابرماس
این الگو ممکن است باز هم تغییر کند، با توجه به سرعت تغییرات فناوری و ظهور «هوش عاملی» (Agentic Intelligence)، که جانشین پیچیدهتر و خودمختارتر ابزارهای هوش مصنوعی مولد امروزی است. توسعهدهندگان اصلی هوش مصنوعی، از جمله آنتروپیک، گوگل و اوپنایآی، همگی در حال پیشرفت به سمت «دستیاران جهانی» جدیدی هستند که قادر به دیدن، شنیدن، چت کردن، استدلال کردن، به خاطر سپردن و اقدام در سراسر دستگاهها هستند. این به آن معناست که ابزارهای هوش مصنوعی قادر خواهند بود تصمیمات پیچیده را بدون نظارت مستقیم انسان بگیرند، که این امر به آنها اجازه میدهد تا پشتیبانی مشتری (با چتباتهایی که میتوانند نیازهای مشتری را برآورده کنند) و برنامهنویسی (با عاملهایی که میتوانند به مهندسان در وظایف توسعه نرمافزار کمک کنند) را تقویت کنند.
نسلهای جدید ابزارهای هوش مصنوعی همچنین در حال کسب قابلیتهای اقناعی قویتری هستند، و در برخی زمینهها به نظر میرسد که به اندازه انسانها قانعکننده عمل میکنند. این موضوع خطرات آشکاری را در پی دارد، اگر این ابزارها عمداً برای دستکاری افراد ساخته و استفاده شوند — یا اگر به سادگی دچار خطا شوند یا توهم (hallucination) پیدا کنند. هیچکس نباید این خطرات را دستکم بگیرد. با این حال، طراحی متفکرانه میتواند به طور بالقوه این خطرات را کاهش دهد: برای مثال، محققان در گوگل نشان دادهاند که میتوان ابزارها و دستوراتی را توسعه داد که هوش مصنوعی را برای شناسایی و اجتناب از زبان دستکاریکننده آموزش میدهند. و همانند برنامهها و ابزارهای دیجیتال موجود، هوش مصنوعی عاملی (agentic AI) به کاربران اجازه میدهد تا کنترل خود را اعمال کنند. فناوری پوشیدنی، مانند فیتبیت یا اپل واچ را در نظر بگیرید که میتواند علائم حیاتی را نظارت کند، الگوهای نگرانکننده را تشخیص دهد، تغییرات رفتاری را توصیه کند، و حتی در صورت لزوم به ارائهدهندگان خدمات درمانی هشدار دهد. در تمام این موارد، کاربر است، نه ربات، که تصمیم میگیرد به چنین دستوراتی پاسخ دهد و کدام دادهها در برنامههای هوش مصنوعی استفاده شود؛ فیتبیت شما نمیتواند شما را مجبور به دویدن کند. به همین ترتیب، در مورد رباتهای برنامهریزی مالی یا رباتهایی که برای دوستیابی استفاده میشوند: فناوری مانند یک دیکتاتور عمل نمیکند، بلکه مانند عضوی از یک جمعیت آنلاین از دوستان عمل میکند و نکاتی را ارائه میدهد که میتوان آنها را رد یا پذیرفت.
داشتن یک ابزار هوش مصنوعی که به این شیوه عمل کند، میتواند آشکارا کارایی افراد را افزایش دهد و همچنین به آنها کمک کند تا زندگی خود را بهتر سازماندهی کنند. اما آنچه کمتر آشکار است این است که این ابزارها به طور بالقوه میتوانند تعامل همتا به همتا را در درون گروهها و بین آنها نیز بهبود بخشند. با کاهش اعتماد به مراجع قدرت و تلاش مردم برای شخصیسازی منابع اطلاعاتی و «جمعیت آنلاین» خود بر اساس سلیقه فردیشان، جوامع قطبیتر شدهاند و در اتاقهای پژواک (echo chambers) گرفتار آمدهاند که با یکدیگر تعامل و تفاهمی ندارند. با توجه به بیاعتمادی گسترده، مراجع قدرت انسانی نمیتوانند به راحتی این وضعیت را اصلاح کنند. اما همانطور که ابزارهای هوش مصنوعی میتوانند بین زبانها ترجمه کنند، پتانسیل ترجمه بین «زبانهای اجتماعی» را نیز پیدا کردهاند: یعنی بین جهانبینیها. یک ربات میتواند مکالمات آنلاین بین گروههای مختلف را اسکن کند و الگوها و نقاط مشترک مورد علاقه را بیابد که میتوانند به دستوراتی تبدیل شوند که به طور بالقوه به یک «جمعیت» از افراد امکان میدهد جهانبینیهای دیگران را بهتر «بشنوند» و حتی «درک کنند». به عنوان مثال، محققان گوگل دیپمایند و دانشگاه آکسفورد یک ابزار هوش مصنوعی به نام «ماشین هابرماس» (ادای احترام به فیلسوف آلمانی یورگن هابرماس) توسعه دادهاند که آرزو دارد اختلافات بین گروههای دارای دیدگاههای سیاسی متضاد را میانجیگری کند. این ابزار بیانیههایی را تولید میکند که هم دیدگاه اکثریت و هم دیدگاه اقلیت را در یک گروه مرتبط با یک موضوع سیاسی منعکس میکند و سپس زمینههای مشترک را پیشنهاد میدهد. در مطالعاتی که بیش از ۵۰۰۰ شرکتکننده در آن حضور داشتند، بیانیههای تولید شده توسط هوش مصنوعی بر بیانیههای ایجاد شده توسط میانجیگران انسانی ترجیح داده شدند، و استفاده از آنها منجر به توافق بیشتر در مورد راههای پیش رو در مسائل تفرقهافکن شد.
بنابراین، جوامع چگونه میتوانند از مزایای هوش مصنوعی بدون گرفتار شدن در خطرات آن بهرهمند شوند؟ اولاً، آنها باید تشخیص دهند که اعتماد یک پدیده چند وجهی است که قبلاً نیز تغییر کرده (و به تغییر خود ادامه خواهد داد) و تغییرات فناورانه در میان (و تشدید کننده) دگرگونیهای اجتماعی در حال وقوع است. این بدان معناست که توسعهدهندگان هوش مصنوعی باید با احتیاط و فروتنی بسیار عمل کنند، و خطرات ابزارهایی را که توسعه میدهند مورد بحث قرار داده و آنها را کاهش دهند. گوگل، به نوبه خود، تلاش کرده است این کار را با انتشار مجموعهای بلندپروازانه از توصیهها در ۳۰۰ صفحه در مورد هزارتوی اخلاقی دستیاران پیشرفته هوش مصنوعی انجام دهد، و بررسی کند که چگونه میتوان تمهیدات حفاظتی را حفظ کرد که از دستکاری احساسی کاربران توسط هوش مصنوعی جلوگیری کند، و اندازهگیری رفاه انسانی به چه معناست. شرکتهای دیگر، مانند آنتروپیک، نیز همین کار را انجام میدهند. اما برای مقابله با این عدم قطعیتها، توجه بسیار بیشتری از سوی بخش خصوصی مورد نیاز است.
مصرفکنندگان همچنین نیاز به انتخاب واقعی در میان توسعهدهندگان دارند، تا بتوانند پلتفرمهایی را انتخاب کنند که بیشترین حریم خصوصی، شفافیت و کنترل کاربر را ارائه میدهند. دولتها میتوانند با استفاده از سیاستهای عمومی برای ترویج توسعه مسئولانه هوش مصنوعی، و همچنین علم باز و نرمافزار باز، این امر را تشویق کنند. این رویکرد میتواند خطرات امنیتی ایجاد کند. اما همچنین با تزریق رقابت بین سیستمهای مختلف، نظارت و تعادل بیشتری را ایجاد میکند. همانطور که مشتریان میتوانند در مورد بانکها یا خدمات مخابراتی «انتخابهای مختلفی» داشته باشند اگر از نحوه برخورد یک سیستم با آنها ناراضی باشند، باید بتوانند بین عاملهای هوش مصنوعی جابجا شوند تا تعیین کنند کدام پلتفرم بیشترین کنترل را به آنها ارائه میدهد.
افزایش عاملیت انسانی باید هدف اصلی در تفکر در مورد نحوه تعامل افراد با پلتفرمهای هوش مصنوعی باشد. به جای نگاه کردن به هوش مصنوعی به عنوان یک ارباب رباتیک مستبد، توسعهدهندگان باید آن را بیشتر به عنوان یک عضو فوقهوشمند از جمعیتهای آنلاین موجود افراد معرفی کنند. این به معنای اعتماد کورکورانه مردم به هوش مصنوعی یا استفاده از آن برای جایگزینی تعاملات انسان به انسان نیست؛ این فاجعهبار خواهد بود. اما رد کردن هوش مصنوعی صرفاً به دلیل اینکه بیگانه به نظر میرسد، به همان اندازه احمقانه است. هوش مصنوعی، مانند انسانها، پتانسیل انجام کارهای خوب و بد و عمل کردن به روشهای قابل اعتماد و غیرقابل اعتماد را دارد. اگر میخواهیم از تمام مزایای هوش مصنوعی بهرهمند شویم، باید تشخیص دهیم که در جهانی زندگی میکنیم که اعتماد به رهبران در حال فروپاشی است، حتی در حالی که ما بیشتر به خرد جمعی — و خودمان — ایمان میآوریم. چالش اینجاست که از این تقویت دیجیتالی خرد جمعی برای خردمندتر کردن همه ما استفاده کنیم.
| |||||||||||||
ايران امروز
(نشريه خبری سياسی الکترونیک)
«ايران امروز» از انتشار مقالاتی كه به ديگر سايتها و نشريات نيز ارسال میشوند معذور است. استفاده از مطالب «ايران امروز» تنها با ذكر منبع و نام نويسنده يا مترجم مجاز است.
Iran Emrooz©1998-2025 | editor@iran-emrooz.net
|