محققان کمپانی هوش مصنوعی ساخت صدا ElevenLabsAI پس از آنکه توانستند با تکنولوژی هوش مصنوعی به تقلید صدا و ساخت انواع ویس دست یابند، متوجه یک مشکل بزرگ شدند: این تکنولوژی در عین حال که بسیار خلاق است، پتانسیل سوء استفاده را هم دارد که میتواند باعث اتفاقات بسیار خطرناک و آسیب رسان شود.
راه حل مقابله با سواستفاده از ابزار هوش مصنوعی تقلید صدا چیست؟
مدیر عامل ElevenLabs در گفتگوی جدیدی که با businessinsider داشته گفت به تنها راه حل قطعی برای مقابله با این مشکل رسیده، و آن «واترمارک دیجیتالی زدن روی صداهای هوش مصنوعی» است.
Mati Staniszewski موسس و مدیر اجرایی ElevenLabs گفت: «این داستان مثل یک بازی موش و گربه است! اما راه حلش واترمارک دیجیتالی زدن روی صداهای تولید شده با هوش مصنوعی است.»
درباره هوش مصنوعی تولید صدا، از اهمیت تا خطرات آن
کمپانی ElevenLabs که فقط یک سال از تاسیس آن میگذرد توانسته آنقدر خوب رشد کند که به ارزش 1.1 میلیارد دلار رسیده است. این کمپانی با استفاده از هوش مصنوعی برای صداگذاری، تبدیل متن به گفتار، دوبله صدا به 29 زبان و شبیه سازی صداها استفاده میکند. این شرکت ادعا می کند که کاربرانش در سال گذشته به اندازه 100 سال صدا تولید کرده اند!
با این حال، قانونگذاران (و مردم) شدیدا نگران هستند که این فناوری مورد سوء استفاده قرار گیرد. به طور مثال سال گذشته بااستفاده از هوش مصنوعی ElevenLabs محتواهای جنسیت ستیزی و نژادپرستانه تولید شد که تاثیرات بدی روی جامعه گذاشت.
اما مدیرعامل این کمپانی معتقد است که فناوری هوش مصنوعی تولید صدا، در بسیاری موارد میتواند کاربردهای خوبی داشته باشد؛ مثلا به بیماران مبتلا به بیماریهای عصبی مانند ALS کمک میکند که بتوانند دوباره با صدای خود ارتباط برقرار کنند. همچنین به عنوان ابزاری برای برقراری ارتباط بین فرهنگها و زبانها کاربرد دارد.
در کل اتفاقات عجیب و غریبی در دنیای هوش مصنوعی در حال رخ دادن است؛ مثل فریب دادن مردم در مراسم مت گالا با وجود تصاویر غیرواقعی یا عرضه هوش مصنوعی Med-Gemini که می تواند در دنیای پزشکی یک دستیار فوق العاده برای پزشکان باشد. به همین دلیل وجود یکسری اقدامات باعث می شود که دنیای رئال و واقعی خیلی زیاد با هوش مصنوعی تلفیق نشود.
به نظر شما واترمارک دیجیتالی زدن روی صداهای تولید شده با هوش مصنوعی، راه حل کاربردی و مفیدی است؟