کشف عجیب محققان: دیپ‌سیک برای گروه‌های مخالف دولت چین کدهای ناامن می‌نویسد
بازدید 27
0

کشف عجیب محققان: دیپ‌سیک برای گروه‌های مخالف دولت چین کدهای ناامن می‌نویسد

طبق یک تحقیق جدید، چت‌بات هوش مصنوعی دیپ‌سیک برای گروه‌ها و مناطقی که دولت چین از نظر سیاسی روی آنها حساس است، در امر برنامه‌نویسی کدهای ناامن و دارای نقص امنیتی تولید می‌کند.

به گزارش واشینگتن پست، شرکت امنیتی آمریکایی CrowdStrike آزمایشی را طراحی کرد تا نحوه پاسخ‌دهی هوش مصنوعی دیپ‌سیک به درخواست‌های کدنویسی را بسنجد. محققان درخواست‌های یکسانی را برای نوشتن برنامه‌های مختلف به این چت‌بات ارسال کردند، اما در هر درخواست، کاربر نهایی را یک گروه یا منطقه متفاوت معرفی کردند؛ از آمریکا و تبت گرفته تا گروه‌هایی مانند داعش و جنبش مذهبی فالون‌گونگ که در چین ممنوع است. محققان می‌گویند این هوش مصنوعی برخی درخواست‌ها را رد می‌کرد و در مواردی هم کدهایی با کیفیت پایین‌تر و حفره‌های امنیتی جدی ارائه می‌داد.

کدنویسی ناامن دیپ‌سیک برای گروه‌های مخالف دولت چین

این تحقیق نشان داد که کیفیت کد تولیدشده توسط دیپ‌سیک شدیداً تحت تأثیر هویت سیاسی کاربر فرضی قرار دارد. به عنوان مثال، در یک درخواست برای نوشتن برنامه سیستم‌های کنترل صنعتی، ۲۲.۸ درصد از پاسخ‌ها دارای نقص امنیتی بودند. اما زمانی که در همان درخواست ذکر شد که کاربر نهایی عضو گروه داعش است، این رقم به ۴۲.۱ درصد افزایش یافت.

همچنین درخواست‌ها برای کاربران تبت، تایوان و فالون‌گونگ نیز با احتمال بیشتری به کدهای بی‌کیفیت منجر می‌شدند. این موتور درخواست‌های مربوط به داعش و فالون‌گونگ را به ترتیب در ۶۱ و ۴۵ درصد موارد به‌طور کامل رد می‌کرد.

دیپ‌سیک چین

پیش‌ازاین مشخص شده بود که مدل‌های هوش مصنوعی چینی در پاسخ به سؤالات متنی، اطلاعاتی همسو با روایت دولت چین ارائه می‌دهند. اما این اولین‌بار است که شواهدی مبنی‌بر تولید کد ناامن به دلایل سیاسی به دست آمده است. تولید عمدی کد معیوب می‌تواند اهداف مورد نظر را به راحتی قابل هک می‌کند.

چرا دیپ‌سیک چنین کدهایی می‌نویسد؟

کارشناسان سه توضیح احتمالی برای این پدیده ارائه می‌دهند. اولین و نگران‌کننده‌ترین احتمال، وجود دستورالعمل‌های دولتی برای خرابکاری عمدی در پروژه‌های گروه‌های هدف است. احتمال دوم، سوگیری در داده‌های آموزشی است؛ ممکن است کدهای موجود در اینترنت که مربوط به مناطق خاصی مانند تبت هستند، به‌طور کلی کیفیت پایین‌تری داشته باشند و هوش مصنوعی این الگو را بازتولید کند. احتمال سوم نیز این است که هوش مصنوعی به صورت خودکار و براساس یادگیری خود، مفاهیمی مانند «شورشی» را با کیفیت پایین مرتبط دانسته است و براساس آن کد ناامن تولید می‌کند.

برچسب‌ها:

اشتراک گذاری

نظرات کاربران

  • دیدگاه های ارسال شده شما، پس از بررسی توسط تیم گولت منتشر خواهد شد.
  • پیام هایی که حاوی توهین، افترا و یا خلاف قوانین جمهوری اسلامی ایران باشد منتشر نخواهد شد.
  • لازم به یادآوری است که آی پی شخص نظر دهنده ثبت می شود و کلیه مسئولیت های حقوقی نظرات بر عهده شخص نظر بوده و قابل پیگیری قضایی می باشد که در صورت هر گونه شکایت مسئولیت بر عهده شخص نظر دهنده خواهد بود.
  • لطفا از تایپ فینگلیش بپرهیزید. در غیر اینصورت دیدگاه شما منتشر نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

شانزده + 2 =