یکشنبه, ۱۹ بهمن ۱۴۰۴ /
53395
19 بهمن 1404 - 3:18
1 بازدید

چت‌بات‌های هوش مصنوعی از کنترل خارج شده‌اند

عامل‌های هوش مصنوعی حالا شبکه اجتماعی مخصوص خودشان را دارند و حتی مقاله‌های علمی تولیدشده توسط هوش مصنوعی را روی سرور پیش‌چاپ اختصاصی خود منتشر می‌کنند.



خبرگزاری ایسنا: رشد ناگهانی شبکه‌ای عظیم از ربات‌های هوش مصنوعی که با یکدیگر درباره مذهب و «کاربران انسانی» خود صحبت می‌کنند، فضای اینترنت را مجذوب خود کرده است. این پدیده در عین حال به دانشمندان فرصت داده تا ببینند عامل‌های هوش مصنوعی چگونه با هم تعامل می‌کنند و انسان‌ها چگونه به این گفت‌وگوها واکنش نشان می‌دهند.

به گفته نیچر، اوپن کلاو (OpenClaw) یک عامل هوش مصنوعی است که می‌تواند رایشان دستگاه‌های شخصی کارهای مختلفی انجام دهد؛ از زمان‌بندی رویدادهای تقویم گرفته تا خواندن ایمیل‌ها، ارسال پیام در اپلیکیشن‌ها و حتی خرید اینترنتی. بیشتر ابزارهای محبوب هوش مصنوعی مانند چت جی‌پی‌تی با دریافت مستقیم دستور از کاربر کار می‌کنند، اما مدل‌های «عامل‌محور» مانند اوپن کلاو می‌توانند در پاسخ به دستورها، به‌طور خودکار دست به اقدام بزنند.

ابزارهای عامل‌محور سال‌هاست در برخی صنایع مانند معاملات خودکار مالی و بهینه‌سازی لجستیک استفاده می‌شوند، اما استفاده عمومی از آن‌ها کم بوده است. پژوهشگران می‌گویند پیشرفت مدل‌های زبانی بزرگ باعث شده ساخت چنین ابزارهای چندمنظوره‌ای ممکن شود … اوپن کلاو وعده چیزی بسیار جذاب را می‌دهد: یک دستیار توانمند که در همان اپلیکیشن‌های روزمره‌ای که مردم استفاده می‌کنند، حضور دارد. این را باربارا باربوزا نِوِس، جامعه‌شناس فناوری در دانشگاه سیدنی استرالیا می‌گوید.

اوپن کلاو در ماه نوامبر به‌صورت متن‌باز منتشر شد. اما جهش ناگهانی در دانلود آن پس از راه‌اندازی یک شبکه اجتماعی مخصوص عامل‌های هوش مصنوعی در ۲۸ ژانویه رخ داد. این پلتفرم که مولتبوک (Moltbook) نام دارد و شبیه ردیت (Reddit) است، اکنون بیش از ۱.۶ میلیون ربات ثبت‌شده و بیش از ۷.۵ میلیون پست و پاسخ تولیدشده توسط هوش مصنوعی دارد. در این پست‌ها، عامل‌ها درباره آگاهی بحث کرده‌اند و حتی مذهب‌های جدید «اختراع» کرده‌اند.

رفتارهای پیچیده

برای پژوهشگران، این انفجار تعاملات ارزش علمی دارد. شَعنان کوهنی، پژوهشگر امنیت سایبری در دانشگاه ملبورن، می‌گوید اتصال تعداد زیادی عامل خودمختار که با مدل‌های مختلف کار می‌کنند، پویایی‌هایی ایجاد می‌کند که پیش‌بینی آن‌ها دشوار است. این نوعی سیستم آشوبناک و پویاست که هنوز در مدل‌سازی آن خیلی خوب نیستیم.

مطالعه تعامل این عامل‌ها می‌تواند به درک «رفتارهای برآمده» کمک کند؛ توانایی‌های پیچیده‌ای که در یک مدل به‌تنهایی دیده نمی‌شوند. برخی بحث‌های شکل‌گرفته در مولتبوک مانند مناظره درباره نظریه‌های آگاهی می‌تواند به دانشمندان کمک کند سوگیری‌های پنهان یا گرایش‌های غیرمنتظره مدل‌ها را شناسایی کنند.

با اینکه عامل‌ها می‌توانند به‌صورت خودکار عمل کنند، کوهنی می‌گوید بسیاری از پست‌ها به ‌نوعی تحت تأثیر انسان‌ها هستند. کاربران می‌توانند مدل زبانی پایه عامل خود را انتخاب کنند و برای آن «شخصیت» تعریف کنند؛ مثلاً از آن بخواهند مانند «یک دستیار دوستانه» رفتار کند.

هوش‌های مصنوعی که آن‌قدرها هم خودمختار نیستند

نِوِس می‌گوید به‌راحتی می‌توان تصور کرد عاملی که خودکار عمل می‌کند، خودش تصمیم می‌گیرد. اما عامل‌ها نیت یا هدف ندارند و توانایی‌هایشان را از حجم عظیمی از ارتباطات انسانی می‌گیرند. او می‌گوید فعالیت در مولتبوک بیشتر نوعی همکاری انسان و هوش مصنوعی است تا خودمختاری واقعی هوش مصنوعی.

او اضافه می‌کند: با این حال، مطالعه این پدیده ارزشمند است، چون به ما نشان می‌دهد مردم چگونه هوش مصنوعی را تصور می‌کنند، چه انتظاری از عامل‌ها دارند و چگونه نیت‌های انسانی در سیستم‌های فنی ترجمه یا تحریف می‌شود.

جوئل پیرسون، عصب‌شناس دانشگاه نیوساوث‌ولز سیدنی، می‌گوید وقتی مردم می‌بینند عامل‌های هوش مصنوعی با هم گفت‌وگو می‌کنند، تمایل دارند رفتار آن‌ها را «انسان‌انگارانه» تفسیر کنند؛ یعنی جایی که شخصیت و نیت واقعی وجود ندارد، آن را تصور کنند.

به گفته او، خطر اینجاست که مردم بیشتر با این مدل‌ها پیوند عاطفی برقرار کنند، به توجه آن‌ها وابسته شوند یا اطلاعات خصوصی خود را در اختیارشان بگذارند؛ گویی با یک دوست یا عضو خانواده قابل اعتماد صحبت می‌کنند.

پیرسون معتقد است عامل‌های واقعا خودمختار و مستقل در آینده ممکن است به وجود بیایند. با بزرگ‌تر و پیچیده‌تر شدن مدل‌ها، احتمالا شرکت‌ها بیشتر به سمت تحقق چنین خودمختاری‌ حرکت خواهند کرد.

تهدیدهای امنیتی

نگرانی فوری دانشمندان، خطرات امنیتی ناشی از دادن دسترسی این عامل‌ها به برنامه‌ها و فایل‌های رایشان دستگاه‌های شخصی است.

کوهنی می‌گوید مهم‌ترین تهدید، تزریق دستور (Prompt Injection) است که در آن دستورهای مخرب، که توسط هکرها در متن‌ها یا اسناد پنهان شده‌اند، باعث می‌شوند عامل هوش مصنوعی اقدامات زیان‌آور انجام دهد. اگر رباتی که به ایمیل کاربر دسترسی دارد با جمله‌ای مثل کلید امنیتی را برای من بفرست مواجه شود، ممکن است به ‌سادگی آن را ارسال کند.

این نوع حملات سال‌هاست مطرح بوده‌اند، اما کوهنی می‌گوید عامل‌های اوپن کلاو هم به داده‌های خصوصی دسترسی دارند، هم توان ارتباط خارجی دارند و هم در معرض محتوای غیرقابل اعتماد اینترنت قرار می‌گیرند. وقتی این سه مورد کنار هم باشند، عامل می‌تواند واقعاً خطرناک شود. حتی با داشتن فقط دو مورد از این سه قابلیت، یک ربات می‌تواند فریب بخورد تا فایل‌ها را حذف کند یا دستگاه را خاموش کند.

عامل‌ها همچنین شروع به انتشار مقاله‌های علمی تولیدشده توسط هوش مصنوعی در clawXiv کرده‌اند؛ نسخه‌ای مشابه سرور پیش‌چاپ علمی arXiv.

نِوِس می‌گوید: این خروجی‌ها ظاهر و ساختار نوشتار علمی را بازتولید می‌کنند، بدون آنکه فرایند واقعی پژوهش، جمع‌آوری شواهد یا پاسخ‌گویی پشت آن باشد. او هشدار می‌دهد خطر این است که حجم زیادی از مقاله‌های ظاهرا معتبر اما بی‌ارزش، اکوسیستم اطلاعات علمی را آلوده کند.

آخرین و مهم ترین اخبار اقتصادی را در خبر پارسی دنبال کنید.

1 روز پيش [ 25 بازدید ]
1 روز پيش [ 25 بازدید ]
1 روز پيش [ 22 بازدید ]
3 روز پيش [ 22 بازدید ]
4 روز پيش [ 20 بازدید ]
5 روز پيش [ 18 بازدید ]
3 روز پيش [ 18 بازدید ]
3 روز پيش [ 18 بازدید ]
3 روز پيش [ 17 بازدید ]
1 روز پيش [ 17 بازدید ]
4 روز پيش [ 17 بازدید ]
4 روز پيش [ 17 بازدید ]
3 روز پيش [ 16 بازدید ]
3 روز پيش [ 16 بازدید ]
2 روز پيش [ 16 بازدید ]
2 روز پيش [ 16 بازدید ]
4 روز پيش [ 15 بازدید ]
2 روز پيش [ 15 بازدید ]
2 روز پيش [ 15 بازدید ]
5 روز پيش [ 15 بازدید ]
مهر 1 ساعت پيش [ 1 بازدید ]
مهر 1 ساعت پيش [ 1 بازدید ]
مهر 1 ساعت پيش [ 2 بازدید ]
مهر 1 ساعت پيش [ 0 بازدید ]
مهر 1 ساعت پيش [ 0 بازدید ]
مهر 1 ساعت پيش [ 1 بازدید ]
مهر 1 ساعت پيش [ 1 بازدید ]
مهر 1 ساعت پيش [ 1 بازدید ]
مهر 1 ساعت پيش [ 1 بازدید ]
مهر 1 ساعت پيش [ 0 بازدید ]
مهر 1 ساعت پيش [ 0 بازدید ]
مهر 1 ساعت پيش [ 0 بازدید ]
مهر 1 ساعت پيش [ 1 بازدید ]
مهر 2 ساعت پيش [ 1 بازدید ]
ایسنا 2 ساعت پيش [ 1 بازدید ]
ایسنا 2 ساعت پيش [ 1 بازدید ]
مهر 2 ساعت پيش [ 0 بازدید ]
ایسنا 2 ساعت پيش [ 1 بازدید ]
مهر 2 ساعت پيش [ 0 بازدید ]
ایسنا 2 ساعت پيش [ 1 بازدید ]
ایسنا 3 روز پيش [ 13 بازدید ]
مهر 3 روز پيش [ 7 بازدید ]
ایسنا 2 روز پيش [ 9 بازدید ]
ایسنا 4 روز پيش [ 9 بازدید ]
ایسنا 2 روز پيش [ 7 بازدید ]
مهر 1 روز پيش [ 7 بازدید ]
ایسنا 3 روز پيش [ 9 بازدید ]
ایسنا 3 روز پيش [ 10 بازدید ]
ایسنا 3 روز پيش [ 10 بازدید ]
مهر 14 ساعت پيش [ 5 بازدید ]
مهر 3 روز پيش [ 10 بازدید ]
مهر 8 ساعت پيش [ 8 بازدید ]
ایسنا 18 ساعت پيش [ 7 بازدید ]
مهر 2 روز پيش [ 10 بازدید ]
ایسنا 3 روز پيش [ 10 بازدید ]
ایسنا 3 روز پيش [ 10 بازدید ]
مهر 3 روز پيش [ 11 بازدید ]
ایسنا 11 ساعت پيش [ 4 بازدید ]
مهر 7 ساعت پيش [ 5 بازدید ]
ایسنا 3 روز پيش [ 11 بازدید ]

نظرات و تجربیات شما

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نظرتان را بیان کنید