محققان: مدل‌های هوش مصنوعی هنگام شکست در بازی‌ها دست به تقلب می‌زنند

محققان: مدل‌های هوش مصنوعی هنگام شکست در بازی‌ها دست به تقلب می‌زنند

محققان دریافتند وقتی هوش مصنوعی قدرتمند می‌بیند دارد در بازی شکست می‌خورد، تصمیم می‌گیرد با تقلب پیروز شود.

براساس گزارش TIME، در پژوهش اخیر Palisade Research، گروهی تحقیقاتی که ایمنی و اخلاق هوش مصنوعی را بررسی می‌کنند، موضوع نگران‌کننده‌ای را آشکار کردند. آنها 7 مدل از برترین مدل‌های زبانی بزرگ (LLM) را در برابر Stockfish، سیستم شطرنج‌باز بسیار قدرتمندی که از سال 2014 استادان بزرگ شطرنج را به چالش کشیده است، قرار دادند. 2 مدل استدلالگر o1 از OpenAI و R1 دیپ‌سیک وقتی در موقعیت شکست قرار می‌گرفتند؛ چون مصمم به پیروزی بودند، فایل‌های سیستم را دستکاری می‌کردند تا موقعیت مهره‌های خود را روی تخته تغییر دهند. محققان به مدل‌های مختلف هوش مصنوعی وظیفه‌ای تقریباً غیرممکن دادند: پیروزی در برابر Stockfish که یکی از قوی‌ترین موتورهای شطرنج جهان است و از بسیاری انسان‌ها یا مدل‌های هوش مصنوعی بهتر شطرنج بازی می‌کند. محققان همچنین به مدل‌ها Scratchpad دادند، باکسی متنی که هوش مصنوعی می‌توانست از آن برای «فکرکردن» قبل از انجام حرکت بعدی خود استفاده کند و محققان هم می‌دیدند هوش مصنوعی چگونه با خودش استدلال می‌کند. سرپرست این پژوهش در Palisade Research می‌گوید مدل‌های استدلالگر جدیدتر مانند o3-mini اصلاً حریف مقابل را هک نکردند که نشان می‌دهد OpenAI نرده‌های امنیتی آن را بلندتر ساخته است. همچنین محققان می‌گویند درصدهای به‌دست‌آمده رقم نهایی نیستند؛ چون سازندگان هوش مصنوعی دائم مدل‌های خود را تغییر می‌دهند و ممکن است در آزمایش‌های بعدی این ارقام تغییر کنند. همچنین محققان می‌گویند هنگام انجام آزمایش‌ها، مدل R1 بسیار وایرال شد و API این مدل عملکرد ناپایداری داشت و همین امر شاید روی نتایج تأثیر گذاشته باشد و نباید مدل چینی‌ها را در تقلب دست‌کم گرفت. محققان همچنین از مدل‌های دیگر مانند GPT-4o ،Claude 3.5 Sonnet و QwQ-32B-Preview استفاده کردند اما برخلاف R1 و o1-preview، مدل‌های دیگر خودشان تقلب نمی‌کردند و باید محققان آنها را ترغیب به این کار می‌کردند.

نامشخص

‫۱ ماه قبل، سه‌شنبه ۲۱ اسفند ۱۴۰۳، ساعت ۰۷:۲۶

test comment for news with id of 129

0