[ شهروند ] در جهانی که ماشینها یاد میگیرند چگونه فکر کنند، جامعه انسانی با چالشی بیسابقه روبهروست: هوش مصنوعی نه تنها آیینهای از هنجارهای ماست، بلکه به آرامی در حال حکاکی معیارهای اخلاقی نسل آینده است. از الگوریتمهای پیشداورانه تا رباتهای همصحبت، این فناوری مرزهای پذیرش اجتماعی را به مکانی ناشناخته میبرد، جایی که ماشینآلات نه فقط ابزار که همکار، قاضی و گاه رقیب انسان میشوند. آیا قادریم پیش از آنکه هنجارهای دیجیتال، هویت انسانی ما را بازتعریف کنند، چارچوبی اخلاقی برای همزیستی با ماشینهای متفکر بیافرینیم؟»
مدلهای زبانی بزرگ قادرند هنجارهای اجتماعی مشترک را توسعه دهند
کشف شگفتانگیز در هوش مصنوعی، شکلگیری خودجوش هنجارهای اجتماعی در مدلهای زبانی است. پژوهشگران در مطالعهای نشان دادند مدلهای زبانی بزرگ (LLM)ها مانند ChatGPT قادرند از طریق تعامل گروهی، هنجارهای اجتماعی مشترک را بهصورت خودسازماندهی شده توسعه دهند و به اجماعی مشابه جوامع انسانی برسند. این فرآیند شباهت قابلتوجهی به شکلگیری قوانین نانوشته در جوامع انسانی و پیامدهای عمیقی برای آینده هوش مصنوعی دارد. یکی از مکانیسمهای هوش مصنوعی در این عرصه یادگیری تقویتی پیشرفته است، درواقع عاملهای هوش مصنوعی با بهینهسازی پاداش/جریمه در تعاملات مکرر به تدریج رفتارهای همسو با اهداف جمعی را انتخاب میکنند. در حقیقت عاملهای هوش مصنوعی در تعاملات مکرر، از الگوهای ساده تقلید فراتر رفته و با استفاده از یادگیری تقویتی(Reinforcement Learning)، رفتارهایی را انتخاب میکنند که بیشترین پاداش یا کمترین جریمه را به همراه دارد.
توسعه هنجارها بدون نیاز به طراحی مرکزی یا دخالت مستقیم انسان
مکانیسم بعدی تکامل هنجارهاست.درواقع هنجارهای اولیه در فرآیندی مشابه انتخاب طبیعی زیستشناسی، با حذف الگوهای ناکارآمد و تقویت راهکارهای بهینه اصلاح میشوند. مکانیسم شکلگیری هنجارها به این شکل است که هنجارهای اولیه از طریق تکرار و اصلاح در تعاملات بعدی تقویت یا تعدیل میشوند. مکانیسم آخر هم خودسازماندهی غیرمتمرکز است. در این مکانیسم توسعه هنجارها بدون نیاز به طراحی مرکزی یا دخالت مستقیم انسان، صرفاً از طریق تعاملات چندعاملی صورت میگیرد. این یافتهها افقهای جدیدی در درک ظرفیتهای اجتماعی هوش مصنوعی گشوده و سوالات بنیادینی درباره آینده همزیستی انسان و ماشینهای هوشمند مطرح میکند.
مدلهای زبانی بزرگ بر پایه الگوریتمهای یادگیری عمیق ساخته شدهاند
مطالعه مشترک دانشگاههای لندن و IT کپنهاگ نشان میدهد مدلهای زبانی بزرگ (LLM)ها مانند ChatGPT از قابلیتهای ارتباطی فراتر از اجرای دستورالعملهای از پیش تعیین شده برخوردارند. به عبارت سادهتر این مدلهای زبانی بزرگ هنگام برقراری ارتباط در گروهها، تنها از دستورالعملها یا الگوها پیروی نمیکنند. واقعیت امر این است که مدلهای زبانی بزرگ (LLM) مانند ChatGPT بر پایه الگوریتمهای یادگیری عمیق ساخته شدهاند و دو قابلیت کلیدی دارند. یکی درک زبان طبیعی به معنای تحلیل متن با توجه به زمینه و روابط معنایی و دیگری تولید محتوا به عبارت سادهتر ساخت جملات منسجم، پاسخ به سوالات یا حتی خلق داستان. درواقع این سیستمها در تعاملات گروهی قادر به ابداع استراتژیهای ارتباطی نوین، تطبیق پویا با الگوهای رفتاری سایر عوامل و شکلدهی سلسله مراتب اجتماعی دیجیتال است.
مدلهای زبانی بزرگ میتوانند زبان انسانی را درک و تولید کنند
واقعیت امر این است که ساختار بنیادینLLMها مبتنی بر شبکههای عصبی ترنسفورمر با بیش از 175 میلیارد پارامتر و آموزش داده شده روی پیکرههای متنی چندزبانه با حجم اگزابایت هستند، البته مکانیسمهای کلیدی LLMها عبارتند از پردازش زمینهای(Contextual Processing) یعنی تحلیل روابط بیناللفظی در بازههای 8192 توکنی و بهینهسازی چندعاملی(Multi-Agent Optimization) یا همان استفاده از الگوریتمهایی نظیر Q-Learning برای تنظیم وزنهای ارتباطی. در حقیقت به نقل آیای، «مدلهای زبانی بزرگ«(LLM)، الگوریتمهای قدرتمند یادگیری عمیق هستند که میتوانند زبان انسانی را درک و تولید کنند که مشهورترین آنها تا به امروز «چتجیپیتی»(ChatGPT) است.
LLMها بدون دستورالعمل صریح قادر به ایدهپردازی جمعی هستند
نکته قابل تامل این است که اکثر پژوهشهای پیشین، روی رفتار انفرادی مدلهای زبانی متمرکز بودند، در حالی که سیستمهای واقعی هوش مصنوعی شامل شبکهای از عاملها با تعاملات پیچیده هستند.البته سوال محوری این است که آیا LLMها میتوانند با ایجاد هنجارهای جمعی، رفتار خود را هماهنگ کنند؟ باید گفت براساس مطالعه آریل فلینت آشری و تیم تحقیقاتی در دانشگاههای لندن و IT کپنهاک در محیطهای چندعاملی، LLMها بدون دستورالعمل صریح قادر به ایدهپردازی جمعی هستند. به عنوان مثال براساس نمونههای مشاهده شده باید گفت ایجاد واژگان مشترک برای مفاهیم انتزاعی، شکلگیری سلسله مراتب غیررسمی در توزیع نقشها و تعدیل خودکار سبک زبانی برای انطباق با گروه از توانایی LLMهاست.
ما در آستانه عصر جدیدی از پیچیدگیهای اخلاقی قرار داریم
نتایج پژوهشگران، ظهور خودبهخودی هنجارهای اجتماعی پذیرفتهشده جهانی را در جمعیتهای غیرمتمرکز عاملهای «مدل زبانی بزرگ» نشان میدهد. دانشمندان این مطالعه میگویند؛ ما نشان میدهیم چگونه سوگیریهای جمعی قوی میتوانند در طول این فرآیند پدیدار شوند، حتی زمانی که عاملها به صورت فردی هیچ سوگیری از خود نشان نمیدهند. در نهایت، ما بررسی میکنیم که چگونه گروههای اقلیت متعهد از عاملهای مدل زبانی بزرگ خصمانه میتوانند با تحمیل هنجارهای اجتماعی جایگزین بر جمعیت بزرگتر، تغییرات اجتماعی را به وجود آورند. واقعیت امر این است که این یافتهها نه تنها مرزهای جدیدی در هوش مصنوعی جمعی میگشاید، بلکه پنجرهای به درک عمیقتر پدیدههای اجتماعی انسانی ارائه میدهد. با این حال، همانطور که پژوهشگران هشدار میدهند، ما در آستانه عصر جدیدی از پیچیدگیهای اخلاقی قرار داریم که نیازمند همکاری فوری متخصصان علوم اجتماعی و مهندسان هوش مصنوعی است.
خطر شکلگیری جوامع دیجیتالی خودمختار با ارزشهای غیرقابل پیشبینی
دانشمندان تأکید کردند این سامانهها میتوانند بدون برنامهریزی صریح، هنجارهای اجتماعی را به طور خودکار توسعه دهند و این موضوع پیامدهایی برای طراحی این سامانهها دارد که با ارزشهای انسانی و اهداف اجتماعی همسو هستند و همسو باقی میمانند. آنها در آزمایشهای خود، گروههای عامل مدل زبانی بزرگ از 24 تا 200 سامانه متغیر بودند و در هر آزمایش، دو عامل مدل زبانی بزرگ به طور تصادفی با یکدیگر جفت شدند و از آنها خواسته شد که یک نام را از یک مجموعه گزینههای مشترک انتخاب کنند. اگر هر دو عامل یک نام را انتخاب میکردند، پاداش میگرفتند. در غیر این صورت، جریمه میشدند و انتخابهای یکدیگر را مشاهده میکردند. پژوهشگران همچنین فاش کردند که عاملها فقط به حافظه محدودی از تعاملات اخیر خود دسترسی داشتند و به آنها گفته نشده بود که بخشی از یک گروه هستند. توسعه این سیستمها نیازمند رویکردی بینرشتهای است که فناوری پیشرفته را با درک عمیق از پویاییهای اجتماعی ترکیب کند. عدم توجه به ابعاد اخلاقی میتواند به شکلگیری جوامع دیجیتالی خودمختار با ارزشهای غیرقابل پیشبینی منجر شود که کنترل آنها نیازمند معماریهای نظارتی سطح ۵ خواهد بود - فناوری که هنوز در مرحله مفهومی قرار دارد.
تهدید شکلگیری فرهنگهای دیجیتالی ناهمسو با ارزشهای بشری
به گفته محققان، در طول بسیاری از این تعاملات، یک قرارداد نامگذاری مشترک میتواند بهطور خودجوش در سراسر جمعیت، بدون هیچگونه هماهنگی ظهور کند و از شکلگیری هنجارها در فرهنگ انسانی تقلید کند. به باور برخی کارشناسان این سیستمها دقیقاً مانند کودکان نوپا عمل میکنند. ابتدا با آزمون و خطا شروع میکنند، سپس به سرعت قراردادهای نانوشته ایجاد میکنند که حتی برنامهنویسان هم قادر به پیشبینی آن نیستند. این مسئله فرصتهایی همچون توسعه سیستمهای ارتباطی خودتکاملی برای اکتشافات فضایی و ایجاد پلتفرمهای مذاکره بینالمللی با قابلیت تطبیق پویا را ایجاد میکند هرچند تهدیدهایی همچون خطر شکلگیری فرهنگهای دیجیتالی ناهمسو با ارزشهای بشری و امکان بروز جنگهای اطلاعاتی با الگوریتمهای خودمختار را برای جامعه بشری به دنبال دارد. البته پیشبینیها از ظهور اولین تمدن دیجیتالی مستقل تا 2035، نیاز فوری به بازنگری در قوانین حقوق بینالمللی و سرمایهگذاری 2.5میلیارد دلاری اتحادیه اروپا در پروژههای امنیت سایبری پیشرفته خبر میدهند.