پس از موفقیت عجیب هوش مصنوعی چینی deepseek حرف و حدیث‌های فراوان پیرامون این مدل هم آغاز شد. مدیرعامل OpenAI آقای سم آلتمن ابتدا این مدل را تحسین کرد؛ اما خیلی زود درباره «احتمال استفاده غیرمجاز چینی‌ها از مدل آمریکایی chatgpt» صحبت کرد.

حاشیه‌های هوش مصنوعی deepseek

شرکت خالق ChatGPT می‌گوید شواهدی دارند که نشان می‌دهد چینی‌ها به روش استخراج دانش (Distillation) از مدل‌های OpenAI برای آموزش مدل خود استفاده کرده‌اند. این ادعا به زبان ساده یعنی چینی‌ها برای آموزش مدل هوش مصنوعی خود، از داده‌های مدل chatgpt استفاده کرده‌اند. اگر این ادعا ثابت شود، هوش مصنوعی چینی deepseek به دردسر می‎‌افتد و همه این هیاهوها از بین می‌رود!

سرقت غیرمجاز داده‌ها برای آموزش هوش مصنوعی deepseek، تنها حاشیه این مدل نیست! محققان شرکت Wiz که در حوزه امنیت سایبری فعالیت می‌کنند، روز گذشته دیتابیس این هوش مصنوعی را که شامل اطلاعات حساس از جمله تاریخچه‌ی گفت‌وگوی کاربران و کلیدهای API بود، شناسایی کردند.

در کمال تعجب این دیتابیس بدون هیچ محافظتی در فضای اینترنت رها شده بود و اطلاعات آن کاملا در اختیار همه بود!

البته شرکت deepseek خیلی زود این دیتابیس را از دسترس خارج کرد؛ اما این اتفاق یک آبروریزی بزرگ برای این شرکت مطرح محسوب می‌شود.

در نهایت باید به مسئله سانسور اطلاعات توسط deepseek اشاره کنیم که بسیار در شبکه‌های اجتماعی سروصدا کرده است! کاربران زیادی درباره سانسور عجیب و گسترده اطلاعاتی این مدل گزارش داده‌اند، به‌طور مثال هرگونه پرسشی درباره موضوعات سیاسی، به خودسانسوری یا امتناع از پاسخ دادن منجر می‌شود. هوش مصنوعی deepseek در مواجه با سوالات سیاسی یا ایدئولوژی حساس، کاملا مطابق با مواضع پکن پیش می‌رود.

شما هم این مدل را امتحان کرده‌اید؟ نظر شما چیست؟