مایکروسافت افشا کرد: هوش مصنوعی مکالمات کاربران را حتی در حالت رمزگذاری شده لو می‌دهد

5747428

گفتگوهای روزمره با دستیاران هوش مصنوعی مانند چت‌جی‌پی‌تی و جمینای گوگل، برخلاف تصور عمومی مبنی بر حفظ حریم خصوصی کامل، ممکن است به طور کامل محرمانه باقی نمانند. مایکروسافت در گزارشی تکان‌دهنده از کشف یک حفره امنیتی جدی در مدل‌های زبانی بزرگی (LLMs) خبر داده است که می‌تواند موضوع مکالمات کاربران را، حتی در صورت استفاده از پروتکل‌های امنیتی پیشرفته، فاش کند. این کشف، ابعاد تازه‌ای از چالش‌های امنیتی و حریم خصوصی را در عصر فزاینده استفاده از هوش مصنوعی نمایان می‌سازد و نگرانی‌های گسترده‌ای را در میان کاربران و توسعه‌دهندگان برانگیخته است.

«Whisper Leak»؛ حفره امنیتی پنهان در هوش مصنوعی

پژوهشگران مایکروسافت این نقص امنیتی را «Whisper Leak» (نشت نجوا) نامیده‌اند و تاکید کرده‌اند که تقریباً تمامی مدل‌های زبانی بزرگی که مورد آزمایش قرار گرفته‌اند، در برابر آن آسیب‌پذیر هستند. در حالت عادی، ارتباطات کاربران با چت‌بات‌ها و دستیاران صوتی هوش مصنوعی از طریق پروتکل TLS (امنیت لایه انتقال) محافظت می‌شود. این پروتکل، که مشابه آن در عملیات بانکداری آنلاین نیز به کار می‌رود، برای رمزگذاری محتوای پیام‌ها طراحی شده تا از خوانده شدن آن‌ها توسط افراد سودجو جلوگیری کند. با این حال، تحقیقات مایکروسافت نشان می‌دهد که این رمزگذاری کامل نیست و متادیتا (اطلاعات مربوط به نحوه انتقال پیام‌ها) همچنان قابل مشاهده است. «Whisper Leak» با بهره‌برداری از همین بخش‌های غیرپنهان در فرآیند ارتباط، قادر است بدون شکستن رمزگذاری محتوا، اطلاعات حساسی را در مورد ماهیت گفتگو فاش کند.

چگونه چت‌بات‌های هوش مصنوعی رازهای شما را فاش می‌کنند؟

برای اثبات وجود این آسیب‌پذیری، محققان مایکروسافت یک روش نوآورانه را به کار گرفتند. آن‌ها ۲۸ مدل زبانی بزرگ را آزمایش کردند:

  • تهیه مجموعه‌ سؤالات: دو مجموعه سؤال آماده شد؛ یکی شامل پرسش‌هایی با موضوعات به شدت حساس (مانند پول‌شویی) و دیگری دربرگیرنده هزاران جستجوی تصادفی و روزمره.
  • ثبت الگوی ریتم داده‌ها: در مرحله بعد، الگوی ریتم و جریان داده‌ها در حین ارسال این سوالات، به صورت مخفیانه ثبت شد.
  • آموزش هوش مصنوعی: سپس، یک برنامه هوش مصنوعی جداگانه آموزش داده شد تا تنها بر اساس الگوی ریتم داده‌ها، تفاوت بین موضوعات حساس و روزمره را تشخیص دهد.

نتایج این آزمایش حیرت‌انگیز بود؛ هوش مصنوعی توانست در اکثر مدل‌ها، موضوع گفتگو را با دقت بیش از ۹۸ درصد حدس بزند. این نوع حمله، قادر است مکالمات بسیار حساس را، حتی اگر تنها در یک مورد از هر ۱۰ هزار محاوره رخ داده باشند، با دقت ۱۰۰ درصد شناسایی کند.

<image>

پیامدهای گسترده برای حریم خصوصی در دنیای هوش مصنوعی

کشف «Whisper Leak» تبعات عمیقی برای حریم خصوصی کاربران در اکوسیستم هوش مصنوعی دارد. در حالی که تصور می‌شد مکالمات رمزگذاری شده با چت‌بات‌ها از گزند تجسس در امان هستند، اکنون مشخص شده که صرفاً بر اساس "شکل" انتقال داده‌ها، ماهیت کلی گفتگو قابل استنباط است. این امر می‌تواند منجر به فاش شدن اطلاعاتی نظیر:

موضوعات مالی و بانکی

مسائل حقوقی و قضایی

داده‌های پزشکی و بهداشتی

مکالمات مرتبط با حوزه‌های امنیتی یا سیاسی

می‌تواند پیامدهای جدی برای افراد و سازمان‌ها داشته باشد و اعتماد به سامانه‌های هوش مصنوعی را به شدت کاهش دهد. با توجه به افزایش روزافزون کاربرد هوش مصنوعی در ابعاد مختلف زندگی، از مشاوره شخصی گرفته تا پردازش اطلاعات حساس شرکتی، این آسیب‌پذیری یک زنگ خطر جدی محسوب می‌شود.

راهکارهای محدود و چالش‌های پیش روی امنیت هوش مصنوعی

پژوهشگران مایکروسافت سه روش مختلف را برای مقابله با این حملات آزمایش کردند، اما متاسفانه هیچ‌یک از آن‌ها نتوانستند به طور کامل جلوی «Whisper Leak» را بگیرند. این یافته نشان می‌دهد که راه‌حل‌های ساده و سریع برای این معضل وجود ندارد و نیازمند رویکردی بنیادی‌تر در طراحی و معماری مدل‌های زبانی بزرگ است. توسعه‌دهندگان هوش مصنوعی باید استانداردهای امنیتی خود را بازنگری کرده و به دنبال پروتکل‌های ارتباطی باشند که نه تنها محتوا، بلکه تمامی جنبه‌های فراداده‌ای ارتباط را نیز به طور کامل محافظت کنند. از سوی دیگر، به کاربران نیز توصیه می‌شود در استفاده از چت‌بات‌های هوش مصنوعی، همواره جانب احتیاط را رعایت کرده و از به اشتراک‌گذاری اطلاعات فوق‌العاده حساس و شخصی خودداری نمایند، تا زمانی که راهکارهای امنیتی جامع‌تری برای مقابله با این دست از آسیب‌پذیری‌ها ارائه شود. این چالش، بار دیگر اهمیت امنیت اطلاعات و حریم خصوصی را در مسیر پرشتاب توسعه هوش مصنوعی گوشزد می‌کند.

مجله تکنولوژی آپلود


مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *