در تاریخ 30 اوت، (رویترز) اعلام کرده است که مقامات بریتانیا سازمانها را از یک هشدار در مورد یکپارچهسازی چتباتهای مبتنی بر هوش مصنوعی در کسبوکارهای خود مطلع کردهاند. آنها تأکید کردهاند که تحقیقات نشان داده است که این چتباتها ممکن است به طور غلط به انجام وظایف مخرب ترغیب شوند.
مرکز امنیت سایبری ملی بریتانیا (NCSC) اعلام کرده است که متخصصان هنوز به طور کامل با مشکلات امنیتی پتانسیل مرتبط با الگوریتمهایی که میتوانند تعاملات شبیه به انسانی ایجاد کنند – به نام مدلهای زبان بزرگ یا LLM – آشنا نشدهاند.
ابزارهای هوش مصنوعی، به ویژه چتباتها، میتوانند در زمینههای مختلف کسبوکار بهکار گرفته شوند و نقشهای جدیدی را ایفا کنند. برخی از افراد تصور میکنند که نه تنها جایگزین جستجوهای اینترنتی خواهند شد، بلکه کارهای خدمات مشتری و تماسهای فروش را نیز جایگزین خواهند کرد.
مرکز امنیت سایبری ملی بریتانیا (NCSC) اعلام کرده است که این موضوع میتواند خطراتی را به همراه داشته باشد، به ویژه اگر چنین مدلهایی به عنوان اجزایی دیگر از فرآیندهای کسبوکار سازمان متصل شوند. محققان و دانشمندان به طور مکرر راههایی برای تحتتاثیر قرار دادن چتباتها با تغذیه دستورات نادرست یا فریب دادن آنها به جا زدن محافظ ایمنیشان داخلی پیدا کردهاند.
به عنوان مثال، یک چتبات مبتنی بر هوش مصنوعی که توسط یک بانک مورد استفاده قرار میگیرد، ممکن است در صورتی که یک هکر پرسوجوی خود را به درستی طراحی کند، به انجام یک تراکنش غیرمجاز ترغیب شود.
مرکز امنیت سایبری ملی بریتانیا (NCSC) به سازمانهایی که در حال ایجاد سرویسها با استفاده از مدلهای زبان بزرگ (LLM) هستند، هشدار داده است. آنها به این نکته اشاره کردهاند که در مورد استفاده از این مدلها باید مثل آنچه که اگر از یک محصول یا کتابخانه کد در مرحله آزمایشی (بتا) استفاده میکردند، دقت و احتیاط داشته باشند.
آنها ممکن است به این محصول اجازه ندهند که در تراکنشهایی به نمایندگی از مشتریان دخالت کند و به طور کامل به آن اعتماد نکنند. احتیاط مشابه برای مدلهای زبان بزرگ نیز باید مورد استفاده قرار گیرد.”
مقامات در سراسر جهان با افزایش مدلهای زبان بزرگ مانند ChatGPT از OpenAI دست و پنجه نرم میکنند. این مدلها توسط شرکتها در مجموعه گستردهای از خدمات، از جمله فروش و مراقبت از مشتریان، به کار گرفته میشوند. پیچیدگیهای امنیتی مرتبط با هوش مصنوعی همچنان در حال بررسی است و مقامات در ایالات متحده و کانادا اعلام کردهاند که هکرها از این فناوری استفاده کردهاند.
این مدلها در تنوعی از خدمات کسبوکاری مورد استفاده قرار میگیرند و امنیت مرتبط با هوش مصنوعی نیز همچنان به تمرکز درآمده است. همچنین، مقامات در ایالات متحده و کانادا اعلام کردهاند که هکرها از این تکنولوژی استفاده میکنند.