گوگل چالش اخلاقی هوش مصنوعی دوپلکس را رفع می‌کند؟



  اخبار علمی ,خبرهای  علمی, هوش مصنوعی
پس از معرفی هوش مصنوعی فوق پیشرفته دوپلکس گوگل و جنجال های بسیار، این غول تکنولوژی اعلام کرده که به منظور جلوگیری از ایجاد سوتفاهم و مشکلات آتی، چالش های اخلاقی این گجت را برطرف خواهد کرد.

به گزارش ایسنا، به نقل از وب سایت ABC Online، یکی از پر سر و صداترین و جنجالی‌ترین فناوری‌های جدیدی که گوگل در کنفرانس توسعه دهندگان و رویداد Google I/O ۲۰۱۸ از آن رونمایی کرد، نسخه آزمایشی گوگل دوپلکس بود. این فناوری که مبتنی بر هوش مصنوعی و یادگیری ماشینی فوق پیشرفته است قادر است بسیار شبیه به انسان صحبت کند و همانند یک دستیار صوتی به مخاطبان موردنظر کاربران تماس گرفته و دقیقا با آنها همانند یک انسان مذاکره کرده و به گفت‌وگو بنشیند. صدای گوگل دوپلکس آنقدر شبیه به انسان بوده و هوشمندانه است، به گونه ای که توسط مخاطبان روبات بودن و مصنوعی بودن مکالمات آن، کاملا غیر قابل تشخیص است.

 

پس از معرفی و رونمایی از این محصول جدید، بلافاصله جنجال‌های بسیاری در فضای مجازی بوجود آمد. آنها بر این باورند که این فناوری فوق پیشرفته و فوق هوشمند، بسیار غیر اخلاقی است چراکه کاربران می‌توانند بسیاری از جرائم را بدین صورت انجام بدهند بدون آنکه طرف مقابلشان متوجه شود این یک روبات است.

 

حالا گوگل در واکنش به جنجال های بوجود آمده، اعلام کرده است که این چالش های اخلاقی و اجتماعی را برطرف خواهد کرد.

 

این چالش‌های اخلاقی گوگل دوپلکس می‌تواند عواقب ناگوار پیشرفت تکنولوژی و علم در سالهایی نه چندان دور را به ما گوشزد کند. یک تکنولوژی که می‌تواند بسیار شبیه به انسان عمل کند، صحبت کند، با مخاطب موردنظر بر سر موضوعات مختلف بحث و مذاکره کند، به طور قطع می تواند در آینده ما را با مشکلات و معضلات بزرگی مواجه سازد.

 

حالا باید منتظر بمانیم که با وجود این جنجال‌های بوجود آمده، گوگل باز هم به ادامه روند هوش مصنوعی دوپلکس خواهد پرداخت و آیا این چالش های اخلاقی و اجتماعی را برطرف خواهد کرد یا خیر.

 

کالا ها و خدمات منتخب

    تازه ترین خبرها(روزنامه، سیاست و جامعه، حوادث، اقتصادی، ورزشی، دانشگاه و...)

      ----------------        سیــاست و اقتصــاد با بیتوتــــه      ------------------

      ----------------        همچنین در بیتوته بخوانید       -----------------------