شنبه ۲۱ تير ۱۴۰۴ - Saturday 12 July 2025
ايران امروز
iran-emrooz.net | Mon, 07.07.2025, 14:27

چگونه فناوری در حال دگرگونی ارتباطات انسانی است

هوش مصنوعی و انقلاب اعتماد


یاسمین گرین و جیلیان تت

فارن افرز / ۷ جولای ۲۰۲۵

زمانی که کارشناسان در مورد رابطه جوانان با اطلاعات آنلاین ابراز نگرانی می‌کنند، معمولاً فرضشان بر این است که جوانان به اندازه بزرگسالان سواد رسانه‌ای ندارند. اما تحقیقات مردم‌نگارانه‌ای که توسط جیگ‌ساو — مرکز رشد فناوری گوگل — انجام شده است، واقعیتی پیچیده‌تر و ظریف‌تر را آشکار می‌کند: اعضای نسل زد، که عموماً متولدین پس از سال ۱۹۹۷ و قبل از ۲۰۱۲ محسوب می‌شوند، استراتژی‌های متمایز و متفاوتی برای ارزیابی اطلاعات آنلاین توسعه داده‌اند که هر فرد بالای ۳۰ سال را گیج خواهد کرد. آنها اخبار را به روش بزرگسالان مصرف نمی‌کنند؛ یعنی ابتدا تیتر و سپس کل مطلب را نمی‌خوانند. آنها معمولاً ابتدا تیترها را می‌خوانند، اما سپس به نظرات آنلاین مرتبط با مقاله می‌پرند و تنها پس از آن وارد بدنه اصلی خبر می‌شوند. این گرایش عجیب روشنگر است. جوانان صرفاً به دلیل تأیید یک متخصص، یک ویراستار ناظر، یا سایر مراجع رسمی، به اعتبار یک خبر اعتماد نمی‌کنند؛ آنها ترجیح می‌دهند برای ارزیابی قابل اعتماد بودن خبر، با جمعی از همتایان خود مشورت کنند. حتی در حالی که جوانان به نهادها و شخصیت‌های صاحب قدرت بی‌اعتماد هستند، عصر وب اجتماعی به آنها اجازه می‌دهد تا اعتماد خود را به جمعیت ناشناس بسپارند.

یک مطالعه بعدی جیگ‌ساو در تابستان ۲۰۲۳، پس از انتشار برنامه هوش مصنوعی چت‌جی‌پی‌تی، نحوه استفاده اعضای نسل زد در هند و ایالات متحده از چت‌بات‌های هوش مصنوعی را بررسی کرد. این مطالعه نشان داد که جوانان به سرعت برای مشاوره پزشکی، مشاوره روابط، و نکات مربوط به سهام به چت‌بات‌ها مراجعه می‌کردند، زیرا فکر می‌کردند هوش مصنوعی به راحتی در دسترس است، آنها را قضاوت نمی‌کند و به نیازهای شخصی آنها پاسخ می‌دهد — و از بسیاری جهات، مشاوره هوش مصنوعی بهتر از مشاوره‌ای بود که از انسان‌ها دریافت می‌کردند. در مطالعه‌ای دیگر، شرکت مشاوره‌ای اولیور وایمن الگوی مشابهی را یافت: حدود ۳۹ درصد از کارمندان نسل زد در سراسر جهان ترجیح می‌دهند به جای همکار یا مدیر انسانی، یک همکار یا مدیر هوش مصنوعی داشته باشند؛ برای کارگران نسل زد در ایالات متحده، این رقم ۳۶ درصد است. یک چهارم کل کارمندان در ایالات متحده نیز همین احساس را دارند، که نشان می‌دهد این نگرش‌ها تنها مختص جوانان نیست.

چنین یافته‌هایی مفاهیم رایج در مورد اهمیت و قداست تعاملات بین فردی را به چالش می‌کشند. بسیاری از ناظران مسن‌تر از ظهور چت‌بات‌ها گلایه می‌کنند و این فناوری جدید را مقصر تکه‌تکه کردن افراد و بیگانه کردن آنها از جامعه بزرگ‌تر، تشویق به افزایش فاصله بین افراد و از بین رفتن احترام به مراجع می‌دانند. اما از زاویه‌ای دیگر، رفتار و ترجیحات نسل زد به چیز دیگری نیز اشاره دارد: بازپیکربندی اعتماد که حاوی جوانه‌هایی از امید است.

تحلیلگران در مورد اعتماد به اشتباه فکر می‌کنند. دیدگاه غالب بر این است که اعتماد به نهادهای اجتماعی در کشورهای غربی امروز در حال فروپاشی است؛ به عنوان مثال، تنها دو درصد از آمریکایی‌ها می‌گویند به کنگره اعتماد دارند، در مقایسه با ۷۷ درصد در شش دهه پیش؛ اگرچه ۵۵ درصد از آمریکایی‌ها در سال ۱۹۹۹ به رسانه‌ها اعتماد داشتند، امروزه تنها ۳۲ درصد این کار را انجام می‌دهند. در واقع، اوایل امسال، کریستن سولتیس اندرسون، نظرسنج، نتیجه گرفت که «آنچه ما [آمریکایی‌ها] را هر چه بیشتر متحد می‌کند، همان چیزی است که به آن بی‌اعتمادیم.»

اما چنین داده‌هایی تنها نیمی از داستان را روایت می‌کنند. اگر از دریچه نظرسنجی‌های سنتی قرن بیستم که از مردم می‌پرسد در مورد نهادها و شخصیت‌های صاحب قدرت چه احساسی دارند، نگاه کنیم، تصویر وخیم به نظر می‌رسد. اما اگر از دریچه مردم‌شناسی یا قوم‌نگاری نگاه کنیم — ردیابی آنچه مردم انجام می‌دهند نه آنچه صرفاً به نظرسنج‌ها می‌گویند — تصویر بسیار متفاوتی پدیدار می‌شود. اعتماد لزوماً در دنیای مدرن ناپدید نمی‌شود؛ بلکه در حال مهاجرت است. با هر نوآوری فناورانه جدید، مردم از ساختارهای سنتی قدرت دور شده و به سمت جمعیت روی می‌آورند، دنیای بی‌شکل اما بسیار واقعی از افراد و اطلاعات که تنها با چند ضربه انگشت فاصله دارند.

این تغییر خطرات بزرگی را به همراه دارد؛ مادر نوجوانی اهل فلوریدا که در سال ۲۰۲۴ خودکشی کرد، شکایتی را علیه یک شرکت هوش مصنوعی تنظیم کرده و چت‌بات‌های آن را متهم کرده است که پسرش را به خودکشی تشویق کرده‌اند. اما این تغییر می‌تواند مزایایی نیز به ارمغان بیاورد. اگرچه افرادی که از بومیان دیجیتال نیستند، ممکن است اعتماد به یک ربات را پرخطر بدانند، اما واقعیت این است که بسیاری از اعضای نسل زد، اعتماد به مراجع قدرت انسانی را به همان اندازه (یا حتی پرخطرتر) می‌دانند. اگر ابزارهای هوش مصنوعی با دقت طراحی شوند، پتانسیل کمک به تعاملات بین فردی را دارند، نه آسیب رساندن به آن‌ها: آن‌ها می‌توانند به عنوان میانجی عمل کرده و به گروه‌های قطبی‌شده کمک کنند تا بهتر با یکدیگر ارتباط برقرار کنند؛ آن‌ها می‌توانند به طور بالقوه نظریه‌های توطئه را مؤثرتر از مراجع انسانی خنثی کنند؛ و همچنین می‌توانند حس عاملیت را به افرادی که به کارشناسان انسانی مشکوک هستند، ببخشند. چالش پیش روی سیاست‌گذاران، شهروندان و شرکت‌های فناوری این است که ماهیت در حال تکامل اعتماد را بشناسند و سپس ابزارها و سیاست‌های هوش مصنوعی را در پاسخ به این تحول طراحی کنند. نسل‌های جوان مانند بزرگسالان خود عمل نخواهند کرد و نادیده گرفتن تغییر عظیمی که آن‌ها در حال ایجاد آن هستند، عاقلانه نیست.

سقوط اعتماد

اعتماد یک نیاز اساسی انسانی است: این نیاز، افراد و گروه‌ها را به هم پیوند می‌دهد و بنیاد دموکراسی، بازارها و بیشتر جنبه‌های زندگی اجتماعی امروز را تشکیل می‌دهد. اعتماد به چندین شکل عمل می‌کند. اولین و ساده‌ترین نوع اعتماد، اعتماد بین افراد است، همان دانش رو در رو که اغلب گروه‌های کوچک را از طریق پیوندهای شخصی مستقیم به هم متصل می‌کند. این را می‌توان ”اعتماد از طریق تماس چشمی” نامید. این نوع اعتماد در بیشتر محیط‌های غیرصنعتی (از نوعی که اغلب توسط مردم‌شناسان مطالعه می‌شود) و همچنین در جهان صنعتی (در میان گروه‌های دوستان، همکاران، همکلاسی‌ها و اعضای خانواده) یافت می‌شود.

با این حال، زمانی که گروه‌ها بزرگ می‌شوند، تعاملات رو در رو ناکافی می‌شوند. همانطور که رابین دانبار، زیست‌شناس تکاملی، اشاره کرده است، تعداد افرادی که مغز انسان می‌تواند به طور واقعی بشناسد، محدود است؛ دانبار این تعداد را حدود ۱۵۰ نفر تخمین زد. ”اعتماد عمودی” نوآوری بزرگ هزاره‌های اخیر بود که به جوامع بزرگ‌تر اجازه داد تا از طریق نهادهایی مانند دولت‌ها، بازارهای سرمایه، نهادهای دانشگاهی و مذاهب سازمان‌یافته عمل کنند. این سیستم‌های مبتنی بر قوانین، جمعی، هنجارگرا و تخصیص‌دهنده منابع، شکل و جهت‌گیری اعتماد مردم را تعیین می‌کنند.

دیجیتالی شدن جامعه در دو دهه گذشته، یک تغییر پارادایمی جدید را فراتر از اعتماد از طریق تماس چشمی و اعتماد عمودی، به سمت آنچه راشل باتسمن، دانشمند علوم اجتماعی، ”اعتماد توزیع‌شده” یا تعاملات گسترده همتا به همتا می‌نامد، ممکن ساخته است. این به دلیل این است که اینترنت امکان تعامل بین گروه‌ها را بدون تماس چشمی فراهم می‌کند. برای اولین بار، غریبه‌های کامل می‌توانند برای سفر از طریق برنامه‌هایی مانند ایر بی‌ان‌بی، برای تجارت از طریق ای‌بی، برای سرگرم کردن یکدیگر با انجام بازی‌های ویدیویی چندنفره مانند فورتنایت، و حتی برای یافتن عشق از طریق سایت‌هایی مانند مچ.کام، با یکدیگر هماهنگ شوند.

برای برخی، این ارتباطات ممکن است غیرقابل اعتماد به نظر برسند، زیرا ایجاد هویت‌های دیجیتال جعلی آسان است و هیچ مرجع واحدی برای تحمیل و اجرای قوانین آنلاین وجود ندارد. اما بسیاری از مردم با این وجود طوری عمل می‌کنند که گویی به جمعیت اعتماد دارند، تا حدی به این دلیل که مکانیزم‌هایی برای تقویت اعتماد پدید آمده‌اند، مانند پروفایل‌های رسانه‌های اجتماعی، ”دوستیابی”، ابزارهای تأیید جمعی و نظرات همتایان آنلاین که نوعی نظارت را ارائه می‌دهند. برنامه اشتراک‌گذاری سفر اوبر را در نظر بگیرید. دو دهه پیش، ساخت یک سرویس تاکسی که غریبه‌ها را تشویق به سوار شدن به اتومبیل‌های شخصی یکدیگر کند، غیرقابل تصور به نظر می‌رسید؛ مردم به این شکل به غریبه‌ها اعتماد نمی‌کردند. اما امروز، میلیون‌ها نفر این کار را انجام می‌دهند، نه تنها به این دلیل که مردم به اوبر به عنوان یک نهاد اعتماد دارند، بلکه به دلیل اینکه سیستم رتبه‌بندی همتا به همتانظارت جمعی – هم به مسافران و هم به رانندگان اطمینان خاطر می‌دهد. با گذشت زمان و با انگیزه فناوری جدید، الگوهای اعتماد می‌توانند تغییر کنند.

بدون قضاوت

هوش مصنوعی پیچیدگی جدیدی به این روایت می‌افزاید، پیچیدگی‌ای که می‌تواند به عنوان شکلی نو از اعتماد درک شود. این فناوری مدت‌هاست که بی‌سر و صدا در زندگی روزمره ما، در ابزارهایی مانند غلط‌گیر املایی و فیلترهای اسپم، جای گرفته است. اما ظهور اخیر هوش مصنوعی مولد (Generative AI) نشان‌دهنده یک تغییر متمایز است. سیستم‌های هوش مصنوعی اکنون از استدلال پیچیده برخوردارند و می‌توانند به عنوان عامل عمل کنند و وظایف پیچیده را به طور مستقل انجام دهند. این موضوع برای برخی ترسناک به نظر می‌رسد؛ در واقع، یک نظرسنجی از پیو نشان می‌دهد که تنها ۲۴ درصد از آمریکایی‌ها فکر می‌کنند هوش مصنوعی برایشان مفید خواهد بود، و ۴۳ درصد انتظار دارند که «به آنها آسیب» برساند.

اما نگرش آمریکایی‌ها نسبت به هوش مصنوعی به طور جهانی مشترک نیست. یک نظرسنجی ایپسوس در سال ۲۰۲۴ نشان داد که اگرچه حدود دوسوم بزرگسالان در استرالیا، کانادا، هند، بریتانیا و ایالات متحده موافق بودند که هوش مصنوعی «آنها را مضطرب می‌کند»، تنها ۲۹ درصد از بزرگسالان ژاپنی این دیدگاه را داشتند، و تنها حدود ۴۰ درصد از بزرگسالان در اندونزی، لهستان و کره جنوبی نیز همین نظر را داشتند. و اگرچه تنها حدود یک‌سوم افراد در کانادا، بریتانیا و ایالات متحده موافق بودند که از هوش مصنوعی هیجان‌زده هستند، تقریباً نیمی از افراد در ژاپن و سه‌چهارم در کره جنوبی و اندونزی این هیجان را ابراز کردند.

در همین حال، اگرچه مردم در اروپا و آمریکای شمالی به نظرسنج‌ها می‌گویند که از هوش مصنوعی هراس دارند، اما دائماً از آن برای کارهای پیچیده در زندگی خود استفاده می‌کنند، مانند مسیریابی با نقشه‌ها، شناسایی اقلام هنگام خرید، و تنظیم دقیق نوشتار. راحتی یکی از دلایل این امر است: دسترسی به یک پزشک انسانی ممکن است زمان زیادی ببرد، اما ربات‌های هوش مصنوعی همیشه در دسترس هستند. شخصی‌سازی دلیل دیگری است. در نسل‌های قبل، مصرف‌کنندگان تمایل داشتند خدمات «یک اندازه برای همه» را بپذیرند. اما در قرن بیست و یکم، دیجیتالی شدن به افراد امکان داده است تا انتخاب‌های شخصی‌تری در دنیای مصرف‌کننده داشته باشند، چه در زمینه موسیقی، رسانه یا غذا. ربات‌های هوش مصنوعی به این میل فزاینده به شخصی‌سازی پاسخ می‌دهند و آن را تشویق می‌کنند.

یک عامل دیگر، و غیرمعمول‌تر، حریم خصوصی و بی‌طرفی است. در سال‌های اخیر، نگرانی گسترده‌ای در غرب وجود داشته است که ابزارهای هوش مصنوعی داده‌های شخصی را «سرقت» می‌کنند یا با سوگیری  عمل می‌کنند. این ممکن است گاهی موجه باشد. با این حال، تحقیقات قوم‌نگارانه نشان می‌دهد که گروهی از کاربران ابزارهای هوش مصنوعی را دقیقاً به این دلیل ترجیح می‌دهند که «بی‌طرف‌تر»، کمتر کنترل‌کننده، و کمتر مزاحم از انسان‌ها به نظر می‌رسند. یکی از افراد نسل زد که توسط جیگ‌ساو مورد مصاحبه قرار گرفته بود، تمایل خود به صحبت با هوش مصنوعی را با صراحت توضیح داد: «چت‌بات نمی‌تواند من را «کنار بگذارد» (لغو کند)!»

یک مطالعه اخیر دیگر در مورد افرادی که به تئوری‌های توطئه اعتقاد دارند، نشان داد که آنها بسیار بیشتر تمایل داشتند باورهای خود را با یک ربات به اشتراک بگذارند تا با اعضای خانواده یا مراجع سنتی، حتی زمانی که ربات‌ها ایده‌های آنها را به چالش می‌کشیدند. این موضوع یک راه را نشان می‌دهد که در آن تعاملات انسان-ماشین می‌تواند بر مکانیسم‌های اعتماد از طریق تماس چشمی و اعتماد عمودی غلبه کند. همانطور که یک نفر به محققان گفت: «این اولین بار است که پاسخی دریافت کرده‌ام که واقعاً منطقی و معقول بود.» برای افرادی که احساس به حاشیه‌رانده شدن، ناتوانی یا قطع ارتباط با نخبگان را دارند — مانند بسیاری از افراد نسل زد — ربات‌ها کمتر از انسان‌ها قضاوت‌گر به نظر می‌رسند و در نتیجه عاملیت بیشتری به کاربران خود می‌دهند. شاید به شکلی غیرعادی، این امر باعث می‌شود اعتماد کردن به آنها آسان‌تر باشد.

از هال تا هابرماس

این الگو ممکن است باز هم تغییر کند، با توجه به سرعت تغییرات فناوری و ظهور «هوش عاملی» (Agentic Intelligence)، که جانشین پیچیده‌تر و خودمختارتر ابزارهای هوش مصنوعی مولد امروزی است. توسعه‌دهندگان اصلی هوش مصنوعی، از جمله آنتروپیک، گوگل و اوپن‌ای‌آی، همگی در حال پیشرفت به سمت «دستیاران جهانی» جدیدی هستند که قادر به دیدن، شنیدن، چت کردن، استدلال کردن، به خاطر سپردن و اقدام در سراسر دستگاه‌ها هستند. این به آن معناست که ابزارهای هوش مصنوعی قادر خواهند بود تصمیمات پیچیده را بدون نظارت مستقیم انسان بگیرند، که این امر به آنها اجازه می‌دهد تا پشتیبانی مشتری (با چت‌بات‌هایی که می‌توانند نیازهای مشتری را برآورده کنند) و برنامه‌نویسی (با عامل‌هایی که می‌توانند به مهندسان در وظایف توسعه نرم‌افزار کمک کنند) را تقویت کنند.

نسل‌های جدید ابزارهای هوش مصنوعی همچنین در حال کسب قابلیت‌های اقناعی قوی‌تری هستند، و در برخی زمینه‌ها به نظر می‌رسد که به اندازه انسان‌ها قانع‌کننده عمل می‌کنند. این موضوع خطرات آشکاری را در پی دارد، اگر این ابزارها عمداً برای دستکاری افراد ساخته و استفاده شوند — یا اگر به سادگی دچار خطا شوند یا توهم (hallucination) پیدا کنند. هیچ‌کس نباید این خطرات را دست‌کم بگیرد. با این حال، طراحی متفکرانه می‌تواند به طور بالقوه این خطرات را کاهش دهد: برای مثال، محققان در گوگل نشان داده‌اند که می‌توان ابزارها و دستوراتی را توسعه داد که هوش مصنوعی را برای شناسایی و اجتناب از زبان دستکاری‌کننده آموزش می‌دهند. و همانند برنامه‌ها و ابزارهای دیجیتال موجود، هوش مصنوعی عاملی (agentic AI) به کاربران اجازه می‌دهد تا کنترل خود را اعمال کنند. فناوری پوشیدنی، مانند فیت‌بیت یا اپل واچ را در نظر بگیرید که می‌تواند علائم حیاتی را نظارت کند، الگوهای نگران‌کننده را تشخیص دهد، تغییرات رفتاری را توصیه کند، و حتی در صورت لزوم به ارائه‌دهندگان خدمات درمانی هشدار دهد. در تمام این موارد، کاربر است، نه ربات، که تصمیم می‌گیرد به چنین دستوراتی پاسخ دهد و کدام داده‌ها در برنامه‌های هوش مصنوعی استفاده شود؛ فیت‌بیت شما نمی‌تواند شما را مجبور به دویدن کند. به همین ترتیب، در مورد ربات‌های برنامه‌ریزی مالی یا ربات‌هایی که برای دوستیابی استفاده می‌شوند: فناوری مانند یک دیکتاتور عمل نمی‌کند، بلکه مانند عضوی از یک جمعیت آنلاین از دوستان عمل می‌کند و نکاتی را ارائه می‌دهد که می‌توان آنها را رد یا پذیرفت.

داشتن یک ابزار هوش مصنوعی که به این شیوه عمل کند، می‌تواند آشکارا کارایی افراد را افزایش دهد و همچنین به آنها کمک کند تا زندگی خود را بهتر سازماندهی کنند. اما آنچه کمتر آشکار است این است که این ابزارها به طور بالقوه می‌توانند تعامل همتا به همتا را در درون گروه‌ها و بین آن‌ها نیز بهبود بخشند. با کاهش اعتماد به مراجع قدرت و تلاش مردم برای شخصی‌سازی منابع اطلاعاتی و «جمعیت آنلاین» خود بر اساس سلیقه فردی‌شان، جوامع قطبی‌تر شده‌اند و در اتاق‌های پژواک (echo chambers) گرفتار آمده‌اند که با یکدیگر تعامل و تفاهمی ندارند. با توجه به بی‌اعتمادی گسترده، مراجع قدرت انسانی نمی‌توانند به راحتی این وضعیت را اصلاح کنند. اما همانطور که ابزارهای هوش مصنوعی می‌توانند بین زبان‌ها ترجمه کنند، پتانسیل ترجمه بین «زبان‌های اجتماعی» را نیز پیدا کرده‌اند: یعنی بین جهان‌بینی‌ها. یک ربات می‌تواند مکالمات آنلاین بین گروه‌های مختلف را اسکن کند و الگوها و نقاط مشترک مورد علاقه را بیابد که می‌توانند به دستوراتی تبدیل شوند که به طور بالقوه به یک «جمعیت» از افراد امکان می‌دهد جهان‌بینی‌های دیگران را بهتر «بشنوند» و حتی «درک کنند». به عنوان مثال، محققان گوگل دیپ‌مایند و دانشگاه آکسفورد یک ابزار هوش مصنوعی به نام «ماشین هابرماس» (ادای احترام به فیلسوف آلمانی یورگن هابرماس) توسعه داده‌اند که آرزو دارد اختلافات بین گروه‌های دارای دیدگاه‌های سیاسی متضاد را میانجیگری کند. این ابزار بیانیه‌هایی را تولید می‌کند که هم دیدگاه اکثریت و هم دیدگاه اقلیت را در یک گروه مرتبط با یک موضوع سیاسی منعکس می‌کند و سپس زمینه‌های مشترک را پیشنهاد می‌دهد. در مطالعاتی که بیش از ۵۰۰۰ شرکت‌کننده در آن حضور داشتند، بیانیه‌های تولید شده توسط هوش مصنوعی بر بیانیه‌های ایجاد شده توسط میانجی‌گران انسانی ترجیح داده شدند، و استفاده از آنها منجر به توافق بیشتر در مورد راه‌های پیش رو در مسائل تفرقه‌افکن شد.

بنابراین، جوامع چگونه می‌توانند از مزایای هوش مصنوعی بدون گرفتار شدن در خطرات آن بهره‌مند شوند؟ اولاً، آنها باید تشخیص دهند که اعتماد یک پدیده چند وجهی است که قبلاً نیز تغییر کرده (و به تغییر خود ادامه خواهد داد) و تغییرات فناورانه در میان (و تشدید کننده) دگرگونی‌های اجتماعی در حال وقوع است. این بدان معناست که توسعه‌دهندگان هوش مصنوعی باید با احتیاط و فروتنی بسیار عمل کنند، و خطرات ابزارهایی را که توسعه می‌دهند مورد بحث قرار داده و آنها را کاهش دهند. گوگل، به نوبه خود، تلاش کرده است این کار را با انتشار مجموعه‌ای بلندپروازانه از توصیه‌ها در ۳۰۰ صفحه در مورد هزارتوی اخلاقی دستیاران پیشرفته هوش مصنوعی انجام دهد، و بررسی کند که چگونه می‌توان تمهیدات حفاظتی را حفظ کرد که از دستکاری احساسی کاربران توسط هوش مصنوعی جلوگیری کند، و اندازه‌گیری رفاه انسانی به چه معناست. شرکت‌های دیگر، مانند آنتروپیک، نیز همین کار را انجام می‌دهند. اما برای مقابله با این عدم قطعیت‌ها، توجه بسیار بیشتری از سوی بخش خصوصی مورد نیاز است.

مصرف‌کنندگان همچنین نیاز به انتخاب واقعی در میان توسعه‌دهندگان دارند، تا بتوانند پلتفرم‌هایی را انتخاب کنند که بیشترین حریم خصوصی، شفافیت و کنترل کاربر را ارائه می‌دهند. دولت‌ها می‌توانند با استفاده از سیاست‌های عمومی برای ترویج توسعه مسئولانه هوش مصنوعی، و همچنین علم باز و نرم‌افزار باز، این امر را تشویق کنند. این رویکرد می‌تواند خطرات امنیتی ایجاد کند. اما همچنین با تزریق رقابت بین سیستم‌های مختلف، نظارت و تعادل بیشتری را ایجاد می‌کند. همانطور که مشتریان می‌توانند در مورد بانک‌ها یا خدمات مخابراتی «انتخاب‌های مختلفی» داشته باشند اگر از نحوه برخورد یک سیستم با آنها ناراضی باشند، باید بتوانند بین عامل‌های هوش مصنوعی جابجا شوند تا تعیین کنند کدام پلتفرم بیشترین کنترل را به آنها ارائه می‌دهد.

افزایش عاملیت انسانی باید هدف اصلی در تفکر در مورد نحوه تعامل افراد با پلتفرم‌های هوش مصنوعی باشد. به جای نگاه کردن به هوش مصنوعی به عنوان یک ارباب رباتیک مستبد، توسعه‌دهندگان باید آن را بیشتر به عنوان یک عضو فوق‌هوشمند از جمعیت‌های آنلاین موجود افراد معرفی کنند. این به معنای اعتماد کورکورانه مردم به هوش مصنوعی یا استفاده از آن برای جایگزینی تعاملات انسان به انسان نیست؛ این فاجعه‌بار خواهد بود. اما رد کردن هوش مصنوعی صرفاً به دلیل اینکه بیگانه به نظر می‌رسد، به همان اندازه احمقانه است. هوش مصنوعی، مانند انسان‌ها، پتانسیل انجام کارهای خوب و بد و عمل کردن به روش‌های قابل اعتماد و غیرقابل اعتماد را دارد. اگر می‌خواهیم از تمام مزایای هوش مصنوعی بهره‌مند شویم، باید تشخیص دهیم که در جهانی زندگی می‌کنیم که اعتماد به رهبران در حال فروپاشی است، حتی در حالی که ما بیشتر به خرد جمعی — و خودمان — ایمان می‌آوریم. چالش اینجاست که از این تقویت دیجیتالی خرد جمعی برای خردمندتر کردن همه ما استفاده کنیم.






نظر شما درباره این مقاله:








 

ايران امروز (نشريه خبری سياسی الکترونیک)
«ايران امروز» از انتشار مقالاتی كه به ديگر سايت‌ها و نشريات نيز ارسال می‌شوند معذور است.
استفاده از مطالب «ايران امروز» تنها با ذكر منبع و نام نويسنده يا مترجم مجاز است.
Iran Emrooz©1998-2025 | editor@iran-emrooz.net