در تاریخ 30 اوت، (رویترز) اعلام کرده است که مقامات بریتانیا سازمان‌ها را از یک هشدار در مورد یکپارچه‌سازی چت‌بات‌های مبتنی بر هوش مصنوعی در کسب‌وکارهای خود مطلع کرده‌اند. آنها تأکید کرده‌اند که تحقیقات نشان داده است که این چت‌بات‌ها ممکن است به طور غلط به انجام وظایف مخرب ترغیب شوند.

مرکز امنیت سایبری ملی بریتانیا (NCSC) اعلام کرده است که متخصصان هنوز به طور کامل با مشکلات امنیتی پتانسیل مرتبط با الگوریتم‌هایی که می‌توانند تعاملات شبیه به انسانی ایجاد کنند – به نام مدل‌های زبان بزرگ یا LLM – آشنا نشده‌اند.

ابزارهای هوش مصنوعی، به ویژه چت‌بات‌ها، می‌توانند در زمینه‌های مختلف کسب‌وکار به‌کار گرفته شوند و نقش‌های جدیدی را ایفا کنند. برخی از افراد تصور می‌کنند که نه تنها جایگزین جستجوهای اینترنتی خواهند شد، بلکه کارهای خدمات مشتری و تماس‌های فروش را نیز جایگزین خواهند کرد.

مرکز امنیت سایبری ملی بریتانیا (NCSC) اعلام کرده است که این موضوع می‌تواند خطراتی را به همراه داشته باشد، به ویژه اگر چنین مدل‌هایی به عنوان اجزایی دیگر از فرآیندهای کسب‌وکار سازمان متصل شوند. محققان و دانشمندان به طور مکرر راه‌هایی برای تحت‌تاثیر قرار دادن چت‌بات‌ها با تغذیه دستورات نادرست یا فریب دادن آنها به جا زدن محافظ ایمنی‌شان داخلی پیدا کرده‌اند.

به عنوان مثال، یک چت‌بات مبتنی بر هوش مصنوعی که توسط یک بانک مورد استفاده قرار می‌گیرد، ممکن است در صورتی که یک هکر پرس‌وجوی خود را به درستی طراحی کند، به انجام یک تراکنش غیرمجاز ترغیب شود.

مرکز امنیت سایبری ملی بریتانیا (NCSC) به سازمان‌هایی که در حال ایجاد سرویس‌ها با استفاده از مدل‌های زبان بزرگ (LLM) هستند، هشدار داده است. آنها به این نکته اشاره کرده‌اند که در مورد استفاده از این مدل‌ها باید مثل آنچه که اگر از یک محصول یا کتابخانه کد در مرحله آزمایشی (بتا) استفاده می‌کردند، دقت و احتیاط داشته باشند.

آنها ممکن است به این محصول اجازه ندهند که در تراکنش‌هایی به نمایندگی از مشتریان دخالت کند و به طور کامل به آن اعتماد نکنند. احتیاط مشابه برای مدل‌های زبان بزرگ نیز باید مورد استفاده قرار گیرد.”

مقامات در سراسر جهان با افزایش مدل‌های زبان بزرگ مانند ChatGPT از OpenAI دست و پنجه نرم می‌کنند. این مدل‌ها توسط شرکت‌ها در مجموعه گسترده‌ای از خدمات، از جمله فروش و مراقبت از مشتریان، به کار گرفته می‌شوند. پیچیدگی‌های امنیتی مرتبط با هوش مصنوعی همچنان در حال بررسی است و مقامات در ایالات متحده و کانادا اعلام کرده‌اند که هکرها از این فناوری استفاده کرده‌اند.

این مدل‌ها در تنوعی از خدمات کسب‌وکاری مورد استفاده قرار می‌گیرند و امنیت مرتبط با هوش مصنوعی نیز همچنان به تمرکز درآمده است. همچنین، مقامات در ایالات متحده و کانادا اعلام کرده‌اند که هکرها از این تکنولوژی استفاده می‌کنند.