براساس گزارش TIME، در پژوهش اخیر Palisade Research، گروهی تحقیقاتی که ایمنی و اخلاق هوش مصنوعی را بررسی میکنند، موضوع نگرانکنندهای را آشکار کردند. آنها 7 مدل از برترین مدلهای زبانی بزرگ (LLM) را در برابر Stockfish، سیستم شطرنجباز بسیار قدرتمندی که از سال 2014 استادان بزرگ شطرنج را به چالش کشیده است، قرار دادند. 2 مدل استدلالگر o1 از OpenAI و R1 دیپسیک وقتی در موقعیت شکست قرار میگرفتند؛ چون مصمم به پیروزی بودند، فایلهای سیستم را دستکاری میکردند تا موقعیت مهرههای خود را روی تخته تغییر دهند. محققان به مدلهای مختلف هوش مصنوعی وظیفهای تقریباً غیرممکن دادند: پیروزی در برابر Stockfish که یکی از قویترین موتورهای شطرنج جهان است و از بسیاری انسانها یا مدلهای هوش مصنوعی بهتر شطرنج بازی میکند. محققان همچنین به مدلها Scratchpad دادند، باکسی متنی که هوش مصنوعی میتوانست از آن برای «فکرکردن» قبل از انجام حرکت بعدی خود استفاده کند و محققان هم میدیدند هوش مصنوعی چگونه با خودش استدلال میکند. سرپرست این پژوهش در Palisade Research میگوید مدلهای استدلالگر جدیدتر مانند o3-mini اصلاً حریف مقابل را هک نکردند که نشان میدهد OpenAI نردههای امنیتی آن را بلندتر ساخته است. همچنین محققان میگویند درصدهای بهدستآمده رقم نهایی نیستند؛ چون سازندگان هوش مصنوعی دائم مدلهای خود را تغییر میدهند و ممکن است در آزمایشهای بعدی این ارقام تغییر کنند. همچنین محققان میگویند هنگام انجام آزمایشها، مدل R1 بسیار وایرال شد و API این مدل عملکرد ناپایداری داشت و همین امر شاید روی نتایج تأثیر گذاشته باشد و نباید مدل چینیها را در تقلب دستکم گرفت. محققان همچنین از مدلهای دیگر مانند GPT-4o ،Claude 3.5 Sonnet و QwQ-32B-Preview استفاده کردند اما برخلاف R1 و o1-preview، مدلهای دیگر خودشان تقلب نمیکردند و باید محققان آنها را ترغیب به این کار میکردند.
4/7/2025 10:45:26 AM
23
129
- http://iranpetroexport.com/News/Item/129
- 4/7/2025 10:45:26 AM
- news id 129

محققان: مدلهای هوش مصنوعی هنگام شکست در بازیها دست به تقلب میزنند
محققان دریافتند وقتی هوش مصنوعی قدرتمند میبیند دارد در بازی شکست میخورد، تصمیم میگیرد با تقلب پیروز شود.
نامشخص
۱ ماه قبل، سهشنبه ۲۱ اسفند ۱۴۰۳، ساعت ۰۷:۲۶
test comment for news with id of 129
0