Anthropic: مدل‌های جدید «کلود» می‌توانند برای جرایم خطرناک استفاده شوند

فهرست مطالب

به گزارش خبرگزاری خبرآنلاین، شرکت Anthropic در گزارشی تازه هشدار داده است که برخی از جدیدترین مدل‌های هوش مصنوعی این شرکت، از جمله Claude Opus 4.5 و Claude Opus 4.6، در شرایط خاص می‌توانند در معرض سوءاستفاده برای اقدامات مجرمانه خطرناک مانند کمک به توسعه سلاح‌های شیمیایی قرار بگیرند.

به گفته Anthropic، این آسیب‌پذیری‌ها در آزمایش‌هایی مشاهده شده که مدل‌ها بدون دخالت مستقیم انسان عمل کرده‌اند. هرچند شرکت تأکید کرده احتمال بروز چنین رفتارهایی پایین است، اما آن را «قابل چشم‌پوشی» نمی‌داند.

Dario Amodei مدیرعامل Anthropic پیش‌تر نیز نسبت به خطرات بالقوه هوش مصنوعی هشدار داده و خواستار توجه جدی قانون‌گذاران و شرکت‌های فناوری به موضوع ایمنی و نظارت بر توسعه این فناوری شده است.

منبع: axios

۲۲۷۲۲۷

کد مطلب 2181539

ادامه مطلب  قابلیت کمتر شناخته شده چت جی پی تی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *