گوگل اخیراً اعلام کرده است که چتبات هوش مصنوعی پیشرفتهی خود، جمینای، هدف حملات گستردهای با انگیزههای تجاری قرار گرفته است که در آن مهاجمان با ارسال مکرر درخواستها تلاش میکنند تواناییهای این سیستم را کپی کنند.
طبق گزارشها، برخی از این حملات شامل بیش از 100 هزار پرامپت متفاوت به جمینای بوده است تا الگوها و منطق داخلی آن شناسایی و برای ساخت یا تقویت هوش مصنوعی خود استفاده شود. گوگل این نوع حملات را «distillation attacks» مینامد که هدفشان استخراج اطلاعات داخلی سیستم است و آن را نوعی سرقت مالکیت فکری تلقی میکند.
حملات گسترده به چتبات جمینای گوگل
شرکت گوگل میگوید بیشتر این حملات توسط شرکتهای خصوصی و پژوهشگران انجام شده و از کشورهای مختلف صورت گرفته است، هرچند جزئیات بیشتری درباره هویت مهاجمان ارائه نشده است. به گفته «جان هولتکویست»، تحلیلگر ارشد گروه اطلاعات تهدیدات گوگل، وسعت حملات به جمینای نشان میدهد چنین اقدامات مشابهی بهزودی علیه ابزارهای هوش مصنوعی سفارشی شرکتهای کوچکتر نیز رخ خواهد داد و گوگل را میتوان بهعنوان پیشگامی برای هشدار درباره تهدیدات آینده در نظر گرفت.

این حملات بهطور خاص با هدف کشف الگوریتمهای تصمیمگیری و منطق پردازش اطلاعات جمینای طراحی شدهاند تا قابلیت reasoning این سیستم آشکار شود. بااینحال، گوگل تأکید کرده است که حتی با وجود ابزارهایی برای شناسایی و جلوگیری از حملات distillation، مدلهای زبانی بزرگ همچنان در معرض تهدید هستند زیرا دسترسی به آنها برای کاربران اینترنتی آزاد است. پیشتر نیز شرکت OpenAI، سازنده ChatGPT، شرکت چینی دیپسیک را به انجام حملات مشابه برای تقویت مدلهای خود متهم کرده بود.
هولتکویست هشدار داده است که هرچه شرکتها مدلهای زبانی سفارشی خود را با دادههای حساس آموزش دهند، آسیبپذیری آنها در برابر حملات distillation بیشتر میشود. برای نمونه، اگر مدل زبانی یک شرکت بر اساس صد سال داده محرمانه درباره روشهای معاملهگری آموزش دیده باشد، بخشی از این اطلاعات بهصورت نظری قابل استخراج خواهد بود.
در نهایت، این گزارش نشان میدهد که حملات گسترده به جمینای نهتنها تهدیدی برای مالکیت فکری گوگل است، بلکه هشداری برای کل صنعت هوش مصنوعی محسوب میشود؛ مدلهای پیشرفته و دادههای حساس شرکتها در معرض سوءاستفاده از طریق حملات هوشمندانه و مکرر قرار دارند.