سلبریتی‌ها می‌توانند صدای خود را "لایسنس" کنند!



فناوری جدید,اخبار علمی ,خبرهای علمی
یک فناوری جدید "دیپ‌فیک" یا همان جعل عمیق به افراد مشهور اجازه می‌دهد صدای خود را مجوز دار کنند. 

به گزارش ایسنا و به نقل از آی‌ای، با وجود نگرانی‌های فزاینده از این واقعیت که فناوری "دیپ‌فیک"(deepfake) یا "جعل عمیق" می‌تواند به شکل غیر قابل تصوری حقیقت را تغییر دهد، برخی از شرکت‌ها هنوز هم تلاش می‌کنند آن را به عنوان یک محصول خوب و مناسب برای مصرف کننده معرفی کنند.

 

یکی از این شرکت‌ها "وریتون"(Veritone) نام دارد و به تازگی توضیح داده است که قصد دارد افراد مشهور را قادر سازد تا صدای خود را لایسن کنند و از این راه درآمد کسب کنند.

 

این برنامه جدید "دیپ‌فیک" که "مارول.ای‌آی"(Marvel.ai) نام دارد، اساساً مجوز دار کردن صدای افراد مشهور، سیاستمداران و مدیران عامل شرکت‌های مشهور را به طور خودکار انجام می‌دهد.

 

"وریتون" هفته گذشته از پلتفرم "Marvel.ai" رونمایی کرد و گفت: صدای مصنوعی آن به رسانه‌ها، برندها و اینفلوئنسرها کمک می‌کند تا تولید محتوای خود را تسریع و تقویت کنند.

 

این شرکت که همچنین به دلیل توسعه اولین سیستم عامل هوش مصنوعی در جهان به نام "ای‌آی ور"(aiWare) شناخته شده است، می‌گوید که فناوری جدید آن به چهره‌های سرشناس اجازه می‌دهد تا با رضایت خود، صدای خود را برای انجام کارهای تجاری لایسنس کنند.

 

"وریتون" با این بستر جدید، خدمتی را در نظر دارد که به افراد تأثیرگذار و شخصیت‌های سرشناس اجازه می‌دهد بدون نیاز به قدم گذاشتن به داخل یک استودیوی ضبط یا یک مجموعه، میزان تولید محتوا و درآمدزایی خود را افزایش دهند.

 

این فرآیند جدید که به آن "شبیه‌سازی صدا" نیز گفته می‌شود، امکان تقلید دقیق صدای چهره‌های سرشناس اعم از بازیگر، خواننده، سیاستمدار و اینفلوئنسرها را با استفاده از هوش مصنوعی فراهم می‌کند.

 

"وریتون" توضیح داد: چهره‌های سرشناس با کنترل کامل بر صدای خود و میزان و نحوه استفاده از آن می‌توانند به معنای واقعی کلمه در یک لحظه در چند مکان باشند. این کار می‌تواند سطح جدیدی از کاربرد را فراهم کند که قبلاً از نظر انسانی امکان‌پذیر نبود و به افراد مشهور امکان افزایش تعداد پروژه‌ها، حمایت‌های مالی و تأییدیه‌ها یا لایسنس‌هایی را که می‌توانند در هر سال بگیرند، می‌دهد.

 

البته تحولات و جنجال‌های فناوری "جعل عمیق" تاکنون همیشه وجود داشته است و احتمالاً همین مسئله در مورد پلتفرم جدید "وریتون" نیز وجود خواهد داشت. به همین دلیل شرکت‌ها و رسانه‌هایی نظیر توییتر، ادوبی و نیویورک تایمز اخیراً در تلاش برای پیشگیری از مشکلات فیلم‌های "جعل عمیق" گمراه کننده یک روش جهانی برای تأیید ویدیوها را پیشنهاد داده‌اند.

 

"رایان استیلبرگ" رئیس "وریتون" در مصاحبه‌ای با "ورج" گفت که این پلتفرم جدید می‌تواند برای تقلید صدای افراد سرشناسی که از دنیا رفته‌اند نیز کارایی داشته باشد و محتواهای جدید با صدای آنها ساخت.

 

مطالب پیشنهادی,وبگردی

کالا ها و خدمات منتخب

    تازه ترین خبرها(روزنامه، سیاست و جامعه، حوادث، اقتصادی، ورزشی، دانشگاه و...)

      ----------------        سیــاست و اقتصــاد با بیتوتــــه      ------------------

      

      ----------------        همچنین در بیتوته بخوانید       -----------------------

      
       
      وب گردی