شماره ۳۳۵۸ | شنبه 3 خرداد 1404
صفحه را ببند
گزارش «شهروند» از هنجارهای اجتماعی هوش مصنوعی
هوش مصنوعی: آفرینش‌گر یا نابودگر؟

  [ شهروند ]  در جهانی که ماشین‌ها یاد می‌گیرند چگونه فکر کنند، جامعه انسانی با چالشی بی‌سابقه روبه‌روست: هوش مصنوعی نه تنها آیینه‌ای از هنجارهای ماست، بلکه به آرامی در حال حکاکی معیارهای اخلاقی نسل آینده است. از الگوریتم‌های پیشداورانه تا ربات‌های هم‌صحبت، این فناوری مرزهای پذیرش اجتماعی را به مکانی ناشناخته می‌برد، جایی که ماشین‌آلات نه فقط ابزار که همکار، قاضی و گاه رقیب انسان می‌شوند. آیا قادریم پیش از آنکه هنجارهای دیجیتال، هویت انسانی ما را بازتعریف کنند، چارچوبی اخلاقی برای همزیستی با ماشین‌های متفکر بیافرینیم؟»

مدل‌های زبانی بزرگ قادرند هنجارهای اجتماعی مشترک را توسعه دهند
کشف شگفت‌انگیز در هوش مصنوعی، شکل‌گیری خودجوش هنجارهای اجتماعی در مدل‌های زبانی است. پژوهشگران در مطالعه‌ای نشان دادند مدل‌های زبانی بزرگ (LLM)ها مانند ChatGPT قادرند از طریق تعامل گروهی، هنجارهای اجتماعی مشترک را به‌صورت خودسازمان‌دهی شده توسعه دهند و به اجماعی مشابه جوامع انسانی برسند. این فرآیند شباهت قابل‌توجهی به شکل‌گیری قوانین نانوشته در جوامع انسانی و پیامدهای عمیقی برای آینده هوش مصنوعی دارد. یکی از مکانیسم‌های هوش مصنوعی در این عرصه یادگیری تقویتی پیشرفته است، درواقع عامل‌های هوش مصنوعی با بهینه‌سازی پاداش/جریمه در تعاملات مکرر به تدریج رفتارهای همسو با اهداف جمعی را انتخاب می‌کنند. در حقیقت عامل‌های هوش مصنوعی در تعاملات مکرر، از الگوهای ساده تقلید فراتر رفته و با استفاده از یادگیری تقویتی(Reinforcement Learning)، رفتارهایی را انتخاب می‌کنند که بیشترین پاداش یا کمترین جریمه را به همراه دارد.

توسعه هنجارها بدون نیاز به طراحی مرکزی یا دخالت مستقیم انسان
مکانیسم بعدی تکامل هنجارهاست.درواقع هنجارهای اولیه در فرآیندی مشابه انتخاب طبیعی زیست‌شناسی، با حذف الگوهای ناکارآمد و تقویت راهکارهای بهینه اصلاح می‌شوند. مکانیسم شکل‌گیری هنجارها به این شکل است که هنجارهای اولیه از طریق تکرار و اصلاح در تعاملات بعدی تقویت یا تعدیل می‌شوند. مکانیسم آخر هم خودسازمان‌دهی غیرمتمرکز است. در این مکانیسم توسعه هنجارها بدون نیاز به طراحی مرکزی یا دخالت مستقیم انسان، صرفاً از طریق تعاملات چندعاملی صورت می‌گیرد. این یافته‌ها افق‌های جدیدی در درک ظرفیت‌های اجتماعی هوش مصنوعی گشوده و سوالات بنیادینی درباره آینده همزیستی انسان و ماشین‌های هوشمند مطرح می‌کند.
مدل‌های زبانی بزرگ بر پایه الگوریتم‌های یادگیری عمیق ساخته شده‌اند
مطالعه مشترک دانشگاه‌های لندن و IT کپنهاگ نشان می‌دهد مدل‌های زبانی بزرگ (LLM)ها مانند ChatGPT از قابلیت‌های ارتباطی فراتر از اجرای دستورالعمل‌های از پیش‌ تعیین شده برخوردارند. به عبارت ساده‌تر این مدل‌های زبانی بزرگ هنگام برقراری ارتباط در گروه‌ها، تنها از دستورالعمل‌ها یا الگوها پیروی نمی‌کنند. واقعیت امر این است که مدل‌های زبانی بزرگ (LLM) مانند ChatGPT بر پایه الگوریتم‌های یادگیری عمیق ساخته شده‌اند و دو قابلیت کلیدی دارند. یکی درک زبان طبیعی به معنای تحلیل متن با توجه به زمینه و روابط معنایی و دیگری تولید محتوا به عبارت ساده‌تر ساخت جملات منسجم، پاسخ به سوالات یا حتی خلق داستان. درواقع این سیستم‌ها در تعاملات گروهی قادر به ابداع استراتژی‌های ارتباطی نوین، تطبیق پویا با الگوهای رفتاری سایر عوامل و شکل‌دهی سلسله مراتب اجتماعی دیجیتال است.

مدل‌های زبانی بزرگ می‌توانند زبان انسانی را درک و تولید کنند
واقعیت امر این است که ساختار بنیادینLLMها مبتنی بر شبکه‌های عصبی ترنسفورمر با بیش از 175 میلیارد پارامتر و آموزش داده شده روی پیکره‌های متنی چندزبانه با حجم اگزابایت هستند، البته مکانیسم‌های کلیدی LLMها عبارتند از پردازش زمینه‌ای(Contextual Processing) یعنی تحلیل روابط بین‌اللفظی در بازه‌های 8192 توکنی و بهینه‌سازی چندعاملی(Multi-Agent Optimization) یا همان استفاده از الگوریتم‌هایی نظیر Q-Learning برای تنظیم وزن‌های ارتباطی. در حقیقت به نقل آی‌ای، «مدل‌های زبانی بزرگ«(LLM)، الگوریتم‌های قدرتمند یادگیری عمیق هستند که می‌توانند زبان انسانی را درک و تولید کنند که مشهورترین آنها تا به امروز «چت‌جی‌پی‌تی»(ChatGPT) است.

LLMها بدون دستورالعمل صریح قادر به ایده‌پردازی جمعی هستند
نکته قابل تامل این است که اکثر پژوهش‌های پیشین، روی رفتار انفرادی مدل‌های زبانی متمرکز بودند، در حالی که سیستم‌های واقعی هوش مصنوعی شامل شبکه‌ای از عامل‌ها با تعاملات پیچیده هستند.البته سوال محوری این است که آیا LLMها می‌توانند با ایجاد هنجارهای جمعی، رفتار خود را هماهنگ کنند؟ باید گفت براساس مطالعه آریل فلینت آشری و تیم تحقیقاتی در دانشگاه‌های لندن و IT کپنهاک در محیط‌های چندعاملی، LLMها بدون دستورالعمل صریح قادر به ایده‌پردازی جمعی هستند. به عنوان مثال براساس نمونه‌های مشاهده شده باید گفت  ایجاد واژگان مشترک برای مفاهیم انتزاعی، شکل‌گیری سلسله مراتب غیررسمی در توزیع نقش‌ها و تعدیل خودکار سبک زبانی برای انطباق با گروه از توانایی LLMهاست.

ما در آستانه عصر جدیدی از پیچیدگی‌های اخلاقی قرار داریم
نتایج پژوهشگران، ظهور خودبه‌خودی هنجارهای اجتماعی پذیرفته‌شده جهانی را در جمعیت‌های غیرمتمرکز عامل‌های «مدل زبانی بزرگ» نشان می‌دهد. دانشمندان این مطالعه می‌گویند؛ ما نشان می‌دهیم چگونه سوگیری‌های جمعی قوی می‌توانند در طول این فرآیند پدیدار شوند، حتی زمانی که عامل‌ها به صورت فردی هیچ سوگیری از خود نشان نمی‌دهند. در نهایت، ما بررسی می‌کنیم که چگونه گروه‌های اقلیت متعهد از عامل‌های مدل زبانی بزرگ خصمانه می‌توانند با تحمیل هنجارهای اجتماعی جایگزین بر جمعیت بزرگ‌تر، تغییرات اجتماعی را به وجود آورند. واقعیت امر این است که این یافته‌ها نه تنها مرزهای جدیدی در هوش مصنوعی جمعی می‌گشاید، بلکه پنجره‌ای به درک عمیق‌تر پدیده‌های اجتماعی انسانی ارائه می‌دهد. با این حال، همانطور که پژوهشگران هشدار می‌دهند، ما در آستانه عصر جدیدی از پیچیدگی‌های اخلاقی قرار داریم که نیازمند همکاری فوری متخصصان علوم اجتماعی و مهندسان هوش مصنوعی است.

خطر شکل‌گیری جوامع دیجیتالی خودمختار با ارزش‌های غیرقابل پیش‌بینی
دانشمندان تأکید کردند این سامانه‌ها می‌توانند بدون برنامه‌ریزی صریح، هنجارهای اجتماعی را به طور خودکار توسعه دهند و این موضوع پیامدهایی برای طراحی این سامانه‌ها دارد که با ارزش‌های انسانی و اهداف اجتماعی همسو هستند و همسو باقی می‌مانند. آنها در آزمایش‌های خود، گروه‌های عامل‌ مدل زبانی بزرگ از 24 تا 200 سامانه متغیر بودند و در هر آزمایش، دو عامل مدل زبانی بزرگ به طور تصادفی با یکدیگر جفت شدند و از آنها خواسته شد که یک نام را از یک مجموعه گزینه‌های مشترک انتخاب کنند. اگر هر دو عامل یک نام را انتخاب می‌کردند، پاداش می‌گرفتند. در غیر این صورت، جریمه می‌شدند و انتخاب‌های یکدیگر را مشاهده می‌کردند. پژوهشگران همچنین فاش کردند که عامل‌ها فقط به حافظه محدودی از تعاملات اخیر خود دسترسی داشتند و به آنها گفته نشده بود که بخشی از یک گروه هستند. توسعه این سیستم‌ها نیازمند رویکردی بین‌رشته‌ای است که فناوری پیشرفته را با درک عمیق از پویایی‌های اجتماعی ترکیب کند. عدم توجه به ابعاد اخلاقی می‌تواند به شکل‌گیری جوامع دیجیتالی خودمختار با ارزش‌های غیرقابل پیش‌بینی منجر شود که کنترل آنها نیازمند معماری‌های نظارتی سطح ۵ خواهد بود - فناوری که هنوز در مرحله مفهومی قرار دارد.

تهدید شکل‌گیری فرهنگ‌های دیجیتالی ناهمسو با ارزش‌های بشری
به گفته محققان، در طول بسیاری از این تعاملات، یک قرارداد نام‌گذاری مشترک می‌تواند به‌طور خودجوش در سراسر جمعیت، بدون هیچ‌گونه هماهنگی ظهور کند و از شکل‌گیری هنجارها در فرهنگ‌ انسانی تقلید کند. به باور برخی کارشناسان این سیستم‌ها دقیقاً مانند کودکان نوپا عمل می‌کنند. ابتدا با آزمون و خطا شروع می‌کنند، سپس به سرعت قراردادهای نانوشته ایجاد می‌کنند که حتی برنامه‌نویسان هم قادر به پیش‌بینی آن نیستند. این مسئله فرصت‌هایی همچون توسعه سیستم‌های ارتباطی خودتکاملی برای اکتشافات فضایی و ایجاد پلتفرم‌های مذاکره بین‌المللی با قابلیت تطبیق پویا را ایجاد می‌کند هرچند تهدیدهایی همچون خطر شکل‌گیری فرهنگ‌های دیجیتالی ناهمسو با ارزش‌های بشری و امکان بروز جنگ‌های اطلاعاتی با الگوریتم‌های خودمختار را برای جامعه بشری به دنبال دارد. البته پیش‌بینی‌ها از ظهور اولین تمدن دیجیتالی مستقل تا 2035، نیاز فوری به بازنگری در قوانین حقوق بین‌المللی و سرمایه‌گذاری 2.5میلیارد دلاری اتحادیه اروپا در پروژه‌های امنیت سایبری پیشرفته خبر می‌دهند.

ارسال دیدگاه شما

  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط مدیر سایت منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان پارسی باشد منتشر نخواهد شد.

تعداد بازدید :  135