ایلان ماسک به‌تازگی در گفتگوی زنده‌ای که در شبکه اجتماعی X داشته، درباره بحران این روزهای هوش مصنوعی یعنی «تخلیه داده‌های آموزشی» صحبت کرده است. او در این گفتگو به صراحت بیان کرد:

«ما همه داده‌های آموزشی و همه دانش بشری را برای آموزش هوش مصنوعی مصرف کرده‌ایم.»

بحران رکود داده‌های هوش مصنوعی چیزی است که پیش از این هم OpenAI به آن اشاره کرده بود. مدل‌های ChatGPT هم دچار چالش و توقف رشد در اثر این بحران شده‌اند.

راه‌حل این بحران چیست؟

ایلان ماسک در ادامه توضیح داد که این اتفاق از نظر فنی، پارسال رخ داده و حالا دیگر تقریبا چیزی برای آموزش هوش مصنوعی وجود ندارد؛ اما او یک راه‌حل ویژه هم برای این مشکل پیشنهاد داد: استفاده از داده‌های مصنوعی. او درباره داده‌های مصنوعی توضیح داد:

حالا که داده‌های بشری تمام شده، می‌توانیم از داده‌های مصنوعی استفاده کنیم؛ یعنی داده‌هایی که خود هوش مصنوعی تولید کرده. به عبارت دیگر، از داده‌های تولیدشده توسط هوش مصنوعی، برای آموزش هوش مصنوعی استفاده کنیم.

به گفته Techchrunch، راه‌حل ایلان ماسک به‌نوعی تنها چاره این بحران است؛ اما یک روش نگران‌کننده و تا حدی خطرناک است.

تحقیقات نشان می‌دهد داده‌های مصنوعی و غیرواقعی ممکن است مدل را دچار فروپاشی کند.

به این معنا که خلاقیت مدل‌های هوش مصنوعی کاهش پیدا کند. از طرف دیگر معلوم نیست اگر هوش مصنوعی داده‌های اشتباه یا دارای سوگیری تولید کند و مدل‌های بعدی هم روی چنین داده‌های غلطی آموزش ببینند، چه رخ می‌دهد؟! در چنین شرایطی مدیران و کارشناسان باید تدابیر ویژه‌ و احتیاطی اتخاذ کنند که مدل‌های هوش مصنوعی دچار بحران‌های بعدی نشوند.