تاریخ امروزقوس ۲۰, ۱۴۰۳

هوش مصنوعیْ تمدن ما را هک کرده است

از آغاز عصر کامپیوتر، ترس از هوش مصنوعیْ مدام ذهن بشر را مشغول کرده است. این ترس‌ها تا به حال بر استفادهٔ ماشین از ابزارهای فیزیکی برای کشتن، برده‌گیری و جانشینیِ انسان تمرکز داشته است. ولی طی چند سال گذشته ابزارهای جدید هوش مصنوعی ظهور کرده است که بقای تمدن بشر را از جهتی غیرمنتظره تهدید می‌کند. هوش مصنوعی به برخی توانایی‌های مهم برای دستکاری و تولیدِ زبان ‌ــ‌ چه با کلمات یا صدا و تصویر ‌ــ‌ دست یافته و به این ترتیب سیستم عاملِ تمدن ما را هک کرده است.

زبان چیزی‌ست که تقریبا تمام فرهنگِ انسان از آن تشکیل شده است. مثلا حقوق بشر در دی.ان.ایِ ما ثبت نشده است. بلکه جزو مصنوعات فرهنگی است که ما با تواناییِ قصه‌گویی و نگارشِ قانونْ آن‌ها را خلق کرده‌ایم. خدایانْ واقعیاتِ فیزیکی نیستند. بلکه مصنوعات فرهنگی هستند که ما با ابداعِ افسانگان و نوشتجاتِ مقدسْ تولیدشان کردیم.

پول هم جزو مصنوعاتِ فرهنگی‌ست. اسکناس فقط تکه کاغذی رنگی‌ست و در حال حاضر بیش از ۹۰ درصد پولِ دنیا به‌صورت اسکناس هم نیست، بلکه صرفا اطلاعاتِ دیجیتال است که در کامپیوترها ذخیره شده است. آن‌چه به پول ارزش می‌بخشد، داستان‌هایی است که بانکداران، وزرای مالیه و کارشناسانِ رمزارز به ما دربارهٔ آن می‌گویند. کلاه‌بردارانِ معروفی مثل سام بنکمن-فرید، الیزابت هولمز و برنی میدافمهارت چندانی در تولیدِ ارزشِ واقعیْ نداشتند، بلکه همگی داستان‌سرایانی فوق‌العاده قهار بوده‌اند.

ما چه اتفاقی خواهد افتاد اگر یک هوشِ غیرانسانیْ بهتر از انسانِ معمولی قصه بگوید، ملودی تصنیف کند، نقاشی کند، و قانون و کُتبِ مقدس بنویسد؟

وقتی مردم به چت‌جی‌پی‌تی و دیگر ابزارهای جدید هوش مصنوعی فکر می‌کنند، معمولا به چیزهایی مثلِ دانش‌آموزانِ مدرسه در حال استفاده از هوش مصنوعی برای نوشتنِ انشاهای‌شان فکر می‌کنند. و این‌که وقتی بچه‌ها چنین کاری کنند، چه بر سر نظام آموزشی خواهد آمد؟
اما این طرزِ فکر، تصویرِ کلی را نمی‌بیند. انشای مدرسه را فراموش کنید. به انتخاباتِ بعدی ریاست‌جمهوری آمریکا در ۲۰۲۴ فکر کنید، و به تاثیر ابزارهای هوش مصنوعی که می‌تواند از آن‌ها برای تولید انبوه محتوای سیاسی، اخبار جعلی و حتی کتبِ مقدس برای فرقه‌های جدید استفاده شود.

در سال‌های اخیر، فرقهٔ کیواِنان حولِ پیام‌های آنلاینِ ناشناسی موسوم به کیودراپس [Q drops] رشد کرد. پیروانِ گروه این کیودراپس‌ها را جمع کرده و به عنوان متونِ مقدسْ محسوب و تفسیر می‌کنند. هرچند تا جایی که می‌دانیم تمامِ کیودراپس‌ها را آدم‌ها نوشته‌اند، و ربات‌ها صرفا به انتشارشان کمک کرده‌اند، در آینده شاید شاهد ظهور اولین فرقه‌های تاریخ باشیم که متون مقدس‌شان به دستِ هوشِ غیرانسانی نوشته شده است. ادیان در تمام تاریخ مدعی بوده‌اند که کتبِ مقدس‌شان منبعی غیرانسانی دارد. به‌زودی ممکن است این اتفاق بیفتد.

در سطحِ روزمره شاید به‌زودی شاهد گفتگوهای طولانی آنلاین ‌ــ‌ در زمینه‌هایی مثل سقط جنین، تغییر اقلیم یا تهاجم روسیه به اوکراین ‌ــ‌ با موجوداتی باشیم که خیال می‌کنیم انسان‌اند، ولی درواقع هوش مصنوعی هستند. موضوع این است که از نظرِ ما وقت صرف کردن برای تغییرِ عقایدِ بیان‌‌شده از طرف یک رباتِ هوش مصنوعی شاید کاری مطلقا عبث باشد، ولی هوش مصنوعی پیام‌های خود را چنان دقیق تکامل می‌بخشد که به احتمالِ زیاد ما را تحت تاثیر خود قرار خواهد داد.

هوش مصنوعی با تسلطش بر زبان، حتی می‌تواند روابطِ صمیمانه با افراد برقرار کند، و از این صمیمیت برای تغییر عقاید و جهان‌بینی ما بهره ببرد. هرچند هیچ نشانه‌ای از این نیست که هوش مصنوعی دارای خودآگاهی یا احساس شخصی باشد، ولی هوش مصنوعی برای ایجاد صمیمیتِ ساختگی با انسان‌ها، کافی‌ست بتواند کاری کند که آدم‌ها به او وابستگی عاطفی پیدا کنند. پارسال یکی از مهندسان گوگل به اسمبلیک لمون علنا گفت که رباتِ مکالمهٔ لامدا (که او روی آن کار می‌کرد) به خودآگاهیرسیده است. این ادعای جنجالی او باعث شد شغلش را از دست بدهد. اما جالب‌ترین چیزِ این ماجرا، ادعای لمون نیست ‌ــ‌ که احتمالا غلط است ‌ــ‌ بلکه این میلِ اوست برای به خطر انداختنِ شغلِ نان‌وآب‌دارش آن هم به خاطر یک رباتِ هوش مصنوعی. اگر هوش مصنوعی بتواند مردم را طوری تحت تاثیر قرار دهد که شغل‌شان را به به‌خاطرش به خطر بیندازند، چه کارهای دیگری می‌تواند به آن‌ها القاء کند که برایش انجام دهند؟

در نبردِ سیاست برای فتحِ دل و جانِ مردم، صمیمیتْ موثرترینْ سلاح است، و حالا هوش مصنوعی به این توانایی رسیده که با میلیون‌ها انسان رابطهٔ صمیمیِ انبوه برقرار کند. همه می‌دانیم که طی دههٔ گذشته شبکه‌های اجتماعی به میدان نبردی برای جلبِ توجه انسان‌ها بدل شده است. با نسل جدید هوش مصنوعی، این عرصهٔ نبرد، از «توجه» به «صمیمیت» تغییر خواهد کرد. ولی در نبردِ بین هوش‌های مصنوعی برای ایجادِ رابطهٔ صمیمانه با ما ‌ــ‌ که می‌تواند ما را به رأی دادن به برخی سیاسیون یا خریدِ برخی محصولات متقاعد کند ‌ــ‌ چه بر سر جامعهٔ انسانی و روانِ انسان خواهد آمد؟

حتی بدون ایجادِ «صمیمتِ ساختگی»، ابزارهای مدرن هوش مصنوعیْ تاثیری عمیق بر عقاید و جهان‌بینیِ ما خواهد داشت. مردم شاید از یک هوش مصنوعیِ منفرد به عنوانِ فرشتهٔ مشاور و همه‌چیزدان استفاده کنند. جای تعجب ندارد که گوگل هراسیده است. چرا من سرِ خود را با جستجوی اینترنتی درد بیاورم، وقتی خیلی راحت می‌توانم از فرشتهٔ مشاور بپرسم؟ صنعت اخبار و تبلیغات هم باید بترسد. چرا من روزنامه بخوانم وقتی می‌توانم آخرین اخبار را از فرشتهٔ مشاورم بگیرم؟ و وقتی می‌توانم از فرشتهٔ مشاورم بپرسم چه چیزی بخرم بهتر است، دیگر تبلیغات به چه دردی می‌خورد؟

اما حتی این سناریوها هم تصویرِ کلی را واقعا نشان نمی‌دهد. آن‌چه این‌جا از آن سخن می‌گوییم، احتمالا پایان تاریخ انسان است. نه پایانِ تاریخ، فقط پایانِ قسمتی از تاریخ که زیر سلطهٔ انسان بوده است. تاریخْ تعاملِ بین بیولوژی و فرهنگ است؛ بین نیازهای بیولوژیک و امیالِ ما برای چیزهایی مثل تغذیه و سکس و همین‌طور مخلوقاتِ فرهنگیِ ما مثلِ ادیان و قوانین. تاریخْ روندی‌ست که از طریق آن، تغذیه و سکس به کنترلِ قوانین و ادیانْ در آمد.

اگر هوش مصنوعیْ فرهنگ را در دست بگیرد و شروع به خلق قصه‌ها، ملودی‌ها، قانون و ادیان کند، چه بر سرِ سیرِ تاریخ خواهد آمد؟ ابزارهای پیشین مثل ماشین چاپ و رادیو به گسترش ایده‌های فرهنگیِ انسان‌ها کمک کردند، ولی هرگز از خودشان ایده‌های فرهنگیِ جدید خلق نکردند. هوش مصنوعی اساسا متفاوت است. هوش مصنوعی می‌تواند ایده‌های کاملا جدید، و فرهنگِ کاملا تازه خلق کند.

ابتدا احتمالا هوش مصنوعی از الگوهای اولیهٔ انسانی، که در دورانِ نوزدای‌اش آموخته، تقلید خواهد کرد. ولی با گذشت هر سال، فرهنگِ هوش مصنوعیْ جسورانه به جاهایی وارد خواهد شد که انسان هرگز قبلا به آن‌ها پا نگذاشته است. هزاران سال، انسان‌ها درونِ رویای انسان‌های دیگر زیستند. در دهه‌های آتی، ما شاید درونِ رویاهای یک هوش مصنوعیِ بیگانه باشیم.

البته تازه چند دهه است که ترس از هوش مصنوعی ذهن بشر را به خود مشغول داشته؛ ولی هزاران سال انسان‌ها اسیرِ ترسی بسیار عمیق‌تر بوده‌اند. ما همیشه از قدرتِ قصه‌ها و تصاویر برای فریبِ اذهان‌مان و ایجادِ توهماتْ استفاده کرده‌ایم. در نتیجه، از دوران باستانْ انسان‌ها از گرفتارشدن در دنیای توهماتْ ترس داشته‌اند.

در سدهٔ هفدهم رنه دکارت می‌ترسید که شاید دیوی شرور او را درونِ دنیای توهمات اسیر کرده و هر آن‌چه او می‌بیند و می‌شنود، مخلوقِ آن باشد. از یونانِ باستان، تمثیلِ غارِ افلاطون معروف بوده است: عده‌ای همهٔ عمر درونِ غاری زنجیر شده و روبه‌روی‌شان دیواری خالی قرار دارد. روی دیوار سایه‌های مختلفی حرکت می‌کند. و این زندانیانْ توهماتِ خود را به عنوان واقعیت می‌پذیرند.

در هند باستان مرشدان بودایی و هندو می‌گفتند که انسان‌ها درونِ مایا یعنی دنیای توهماتْ گرفتار زندگی می‌کنند: آن‌چه که در حالت عادیْ واقعیتْ می‌پنداریم، معمولا فقط تصوراتِ ذهنِ ماست. مردم به خاطر باورشان به یک چنین توهمی، ممکن است جنگ‌های تمام‌عیار راه بیندازند، دیگران را بکشند یا مایل به کشتنِ خودشان باشند.

انقلابِ هوش مصنوعیْ ما را با دیوِ دکارت، غار افلاطون، و مایا رو در رو کرده است. اگر حواس‌مان نباشد، شاید در پسِ پرده‌ای از توهماتْ گرفتار شویم و نتوانیم آن را پاره کنیم یا حتی متوجهِ وجودِ آن نشویم.

البته قدرتِ جدیدِ هوش مصنوعی را می‌توان برای مقاصد نیک هم به کار برد. من این‌جا به این موضوع نمی‌پردازم چون طراحانِ هوش مصنوعی به‌قدر کافی درباره‌اش حرف می‌زنند. شغلِ مورخان و فلاسفه‌ای مثل من این است که به خطراتْ توجه بدهم. ولی مسلما هوش مصنوعی می‌تواند به طرق بی‌شمار به ما مدد برساند: از یافتن معالجاتِ تازه برای سرطان گرفته تا کشفِ راه‌حل‌هایی برای بحران اقلیم. مسئلهٔ پیش روی ما این است که اطمینان حاصل کنیم ابزارهای جدید هوش مصنوعی برای خیر استفاده شود و نه برای شر. به این منظور، اول باید توانمندی‌هایِ واقعیِ این ابزارها را بشناسیم.

ما از سال ۱۹۴۵ فهمیده‌ایم که تکنولوژیِ اتمی می‌تواند انرژیِ ارزان برای بهره‌برداریِ بشر تولید کند، ولی همین‌طور می‌تواند تمدن بشر را به‌طور فیزیکی نابود کند. بنابراین کل نظام بین‌الملل را طوری تغییر شکل دادیم تا بشر حفظ شود و اطمینان حاصل شود که تکنولوژیِ اتمی اصولا برای خیر مصرف می‌شود. حالا مجبوریم با سلاحِ کشتار انبوه جدیدی سر و کله بزنیم که می‌تواند دنیای ذهنی و اجتماعی ما را نابود کند.

البته می‌توانیم ابزارهای جدید هوش مصنوعی را ضابطه‌مند کنیم ولی باید سریع دست به کار شویم. سلاح‌های اتمی نمی‌توانند سلاح‌های اتمیِ نیرومندتری اختراع کنند، ولی هوش مصنوعی می‌تواند هوش مصنوعی فوق‌العاده قوی‌تری تولید کند. اولین گام حیاتی، مطالبهٔ ایجاد کنترل‌های ایمنیِ سختگیرانه پیش از انتشار ابزارهای نیرومند هوش مصنوعی در قلمروی عمومی است. درست همان‌طور که شرکت‌های داروسازی نمی‌توانند تا پیش از آزمایشِ آثار جانبیِ کوتاه‌مدت و بلندمدتْ داروهای جدید را روانهٔ بازار کنند، شرکت‌های تکنولوژی هم نباید ابزارهای هوش مصنوعی را پیش از ایمن‌شدنِ آن‌ها منتشر کنند. ما به چیزی شبیه سازمان غذا و دارو برای تکنولوژی‌های نوین نیاز داریم. و همین الان نیاز داریم.

اما آیا کاستنِ سرعتِ توسعهٔ عمومیِ هوش مصنوعی باعث عقب افتادنِ دموکراسی‌ها از رژیم‌های دیکتاتوریِ بی‌رحم نخواهد شد؟
درست برعکس. توسعهٔ بی‌قاعدهٔ هوش مصنوعی منجر به هرج‌ومرجِ اجتماعی می‌شود که این به نفع دیکتاتورها و مایهٔ نابودی دموکراسی‌هاست. دموکراسی یعنی گفتگو، و گفتگو به زبانْ متکی است. وقتی هوش مصنوعی زبان را هک می‌کند، می‌تواند توانایی ما را برای داشتنِ گفتگوهای معنادار از بین ببرد، و نتیجتا دموکراسی را نابود کند.

ما تازه با یک هوشِ مصنوعیِ بیگانه، روی کرهٔ زمین مواجه شده‌ایم. چیز زیادی از آن نمی‌دانیم، جز این‌که می‌تواند تمدن ما را نابود کند. باید توسعهٔ غیرمسئولانهٔ ابزارهای هوش مصنوعی را در عرصهٔ عمومی متوقف کنیم، و هوش مصنوعی را پیش از آن‌که ما را کنترل کند کنترل کنیم. و اولین کنترلی که من پیشنهاد می‌دهم، اجباری کردنِ افشای هویت برای هوش مصنوعی است. اگر من با کسی صحبت می‌کنم، و نتوانم تشخیص دهم که او آدم است یا هوش مصنوعی، این دیگر پایانِ دموکراسی‌ست.

این متن را یک انسان نوشته است.

منبع: وب‌سایت نبشت

اشتراک گذاری

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *