هوش مصنوعی تسلیحاتی شده در راه است



اخبار,اخبارعلمی وآموزشی,هوش مصنوعی

سیلیکون ولی همیشه ارتباطات نزدیکی با ارتش آمریکا داشته است اما رزم الگوریتمی عمق بیشتری به رابطه شرکت های بزرگ فناوری با مجموعه نظامی- صنعتی می دهد .

به گزارش فارس، ماه گذشته هفدهمین سالگرد حملات یازدهم سپتامبربود. با این حادثه وبال گردن جدیدی به سراغمان آمد: ما برای مدتی چنان طولانی در افغانستان حضور داریم که اگر کسی بعد از این حملات به دنیا آمده باشد، اکنون آنقدر بزرگ شده که بتواند در این جنگ حضور یابد. همچنین وی می تواند در شش جای دیگر که ما رسما در آنها در حال جنگ به سر می بریم خدمت کند، حال آن 133 کشوری که نیروهای عملیات های ویژه ما تنها درنیمه اول سال 2018 ماموریت هایی را در آنها انجام داده اند به جای خود.


جنگ های یازدهم سپتامبر همچنان ادامه دارند و هیچ پایانی برای آنها در چشم انداز نیست. اکنون پنتاگون در حال سرمایه گذاری هنگفتی روی فناوری هایی است که این جنگ ها را تشدید خواهد کرد. با به کارگرفتن تازه ترین ابزارهایی که صنعت فناوری عرضه می کند، ارتش آمریکا درحال ساخت  شکل خودکارتری از جنگ است؛ شکلی که ظرفیت آن را برای به راه انداختن جنگ در هر جای زمین و برای همیشه به شدت افزایش خواهد داد.


روز جمعه مهلت مزایده وزارت دفاع برای یکی از بزرگ ترین قراردادهای فناوری در تاریخ این وزارتخانه یعنی «زیرساخت دفاعی سرمایه گذاری مشترک» (جدی) به پایان می رسد. جدی پروژه ای جاه طلبانه برای ساخت سیستم های محاسباتی ابری است که در سراسر جهان به خدمت نیروهای آمریکایی درخواهد آمد، از تجزیه و تحلیل پشت میز در ویرجینیا گرفته تا سربازان در حال گشتزنی در نیجر. این قرارداد ارزشی بالغ بر 10 میلیارد دلار در طول بیش از 10 سال دارد و به همین دلیل است که شرکت های بزرگ فناوری با این شدت برای برنده شدن در آن تلاش می کنند. (جز گوگل که کارکنان آن طی کارزاری، با اعمال فشار به مدیریت این شرکت، گوگل را مجبور به کناره گیری از این رقابت کردند.)

در نگاه اول جدی شاید  چیزی شبیه یک پروژه نوسازی دیگر در حوزه فناوری اطلاعات به نظر آید. این حوزه در دولت  بیشتر تمایل دارد با فاصله ای مناسب پشت سر سیلیکون ولی حرکت کند، حتی جایی برخوردار از بودجه های دست و دلبازانه ای چون پنتاگون.  جای پای دیجیتال وزارت دفاع با حدود 3 میلیون و 400 هزار کاربر و 4 میلیون وسیله بسیار بزرگ است. انتقال دادن حتی بخشی از این حجم کاری به یک تامین کننده خدمات ابری نظیر آمازون نیز بی شک کارآمدی آن را بهبود خواهد داد.


اما نیروی واقعی که جدی را به حرکت در می آورد تمایل به تسلیحاتی کردن هوش مصنوعی است؛ چیزی که وزارت دفاع اندک اندک دارد آن را «رزم الگوریتمی» می نامد و با یکجا کردن داده های نظامی در درون یک پلتفرم ابری مدرن و استفاده از خدمات یادگیری ماشینی که این قبیل پلتفرم ها برای تجزیه و تحلیل داده ها در اختیار می گذارند، جدی به پنتاگون کمک خواهد کرد تا جاه طلبی های هوش مصنوعی خود را تحقق بخشد.


مقیاس این جاه طلبی با گذشت زمان در ماه های اخیر شفاف تر شده است. در ماه ژوئن پنتاگون «مرکز اطلاعات مصنوعی مشترک» را تاسیس کرد که بر حدود 600 پروژه هوش مصنوعی که درحال حاضر با هزینه ای یک میلیارد و 700 میلیون دلاری در سطح این وزارتخانه در دست اجراست، نظارت خواهد کرد. و در ماه سپتامبر «سازمان پروژه های تحقیقات پیشترفته دفاعی» (دارپا) و پنتاگون  با اعلام راه اندازی بخش تحقیق و توسعه اعلام کردند که این بخش مبلغی بالغ بر 2 میلیارد دلار را ظرف حدود پنج سال آینده در زمینه تحقیقات تسلیحاتی هوش مصنوعی سرمایه گذاری خواهد کرد.


تاکنون گزارش ها در مورد ریخت و پاش های پنتاگون روی هوش مصنوعی عمدتا بر چشم انداز تسلیحات خودکار - روبات های قاتل ترمیناتورمانندی که بدون هیچ ارتباطی با  یک عامل انسانی انسان ها را درو می کند - تمرکز داشته است. در واقع این سناریوی هولناکی برای آینده ای نزدیک است و اعمال نوعی ممنوعیت بین المللی درمورد تسلیحات خودکار از نوعی که «کارزار متوقف کردن روبات های قاتل» دنبال می کند، کاملا ضرورت دارد.

اما هوش مصنوعی قبلا شروع به بازنویسی معنای جنگ کرده است، حتی اگر (هنوز) شکل ترمیناتورهای به معنای واقعی را به خود نگرفته باشند. این فرایندها  کمتر سینمایی هستند اما به همان اندازه از راه های ترسناکی برای تسلیحاتی کردن هوش مصنوعی استفاده می کنند.
با یک بودجه نظامی در مجموع بیشتر از بودجه های نظامی چین، روسیه، عربستان سعودی، هند، فرانسه، بریتانیا و ژاپن، و حدود 800 پایگاه در سراسر جهان، آمریکا از یک قدرت آتش بی نظیر و توانایی بی مانند برای به کارگرفتن این قدرت آتش در هر جای کره زمین برخوردار است.
ارتش آمریکا می داند چطوربکشد. بخش سخت تر کار فهمیدن این است که چه کسانی را باید کشت. در یک جنگ سنتی تر شما خیلی ساده دشمن را می کشید. اما درکشمکشی که هیچ مرز ملی در آن وجود ندارد، هیچ میدان جنگ ثابت و هیچ متخاصم متعارفی در آن وجود ندارد، چه کسی دشمن است؟


این پرسش کلیدی جنگ همیشگی است. همچنین یکی از مشخصات کلیدی طراحی آن است. ابهام در اینکه دشمن چیست، تداوم کشمکش را برای تقریبا دو دهه و گسترش آن را در بیش از 70 کشور امکان پذیر کرده است؛ که مرحمتی است برای پیمانکاران، بروکرات ها و سیاستمدارانی که زندگی شان را از قِبل نظامی گری آمریکایی می گذرانند. اگر جنگ یک شیادی باشد، به قول اسطوره  نیروی دریایی اسمدلی باتلر، جنگ همیشگی یکی از طولانی ترین این دغلکاری ها تاکنون است.


اما مبهم بودن دشمن، چالش های مشخصی را نیز به وجود می آورد. نگاه کردن به نقشه ای از ویتنام شمالی و انتخاب مکان هایی برای بمب انداختن یک چیز است اما حرکت در میان مقادیر عظیمی از اطلاعات از سراسرجهان برای شناسایی یک نامزد خوب برای انجام یک حمله پهبادی چیزی به کلی متفاوت است. وقتی که دشمن در همه جا باشد، شناسایی هدف بسیار بیشتر کار می برد. اینجا همان جایی است که هوش مصنوعی - یا دقیق تر بگوییم یادگیری ماشینی- به میدان می آید. یادگیری ماشینی می تواند به خودکارسازی یکی از طاقت فرساترین و زمان برترین جنبه های جنگ همیشگی یعنی یافتن کسانی که باید آنها را کشت  کمک کند.

پروژه ماون پنتاگون قبلا این ایده را به مرحله عمل گذاشته است. ماون که با عنوان «تیم کارکردی رزم الگوریتمی» نیز از آن یاد می شود، به تازگی بیشتر به این دلیل به عناوین خبری راه یافته که یک کارمند طغیانگر درگوگل درمورد دخالت این شرکت در این پروژه سخن گفته است. ماون پروژه هوش مصنوعی «پت فایندر» نیروی نظامی است. مرحله اولیه آن به استفاده از یادگیری ماشینی برای اسکن کردن فیلم های ویدئویی تهیه شده توسط پهبادها برای کمک به شناسایی افراد، وسایل نقلیه و ساختمان هایی که ممکن است ارزش بمباران داشته باشند مربوط می شود.


سرتیپ جک شاناهان  مدیر این پروژه می گوید: «ما تحلیلگرانی داریم که با نگاه به کل ویدئوی درحال پخش هر بار شش، هفت، هشت، نه، ده، یا یازده ساعت به نمایشگرها زل می زنند.» نرم افزار ماون این کار را به طور خودکار انجا می دهد و بعد یافته هایش را به یک انسان منتقل می کند. تاکنون به کارگیری این برنامه توفیقات بزرگی به همراه داشته است: این نرم افزار  در شش مکان جنگی در خاورمیانه و آفریقا به کارگرفته شده است. هدف این است که در نهایت این نرم افزار روی خود پهبادها بارگذاری شود تا آنها بتوانند در زمان واقعی اهداف را مکان یابی کنند.


آیا این فناوری دقت را بالا نمی برد و در نتیجه تلفات غیرنظامیان را کاهش نمی دهد؟ این استدلال شایعی است که بالادستی ها هم در پنتاگون و هم در سیلیکون ولی برای دفاع از همکاری خود در پروژه هایی نظیر ماون مطرح می کنند. جن پالکا از «کدی برای آمریکا» با عبارت «کاردهای تیز» در برابر «کاردهای کند» به آن اشاره می کند: کاردهای تیزتر می توانند به ارتش کمک کنند که جان انسان ها را نجات دهد.


در مورد هوش مصنوعی تسلیحاتی شده اما این کاردهای مورد بحث به طورخاصی تیز نیستند. هیچ کمبودی در داستان های ترسناکی وجود ندارد که نشان می دهند چه اتفاقی می افتد اگرنظارت انسانی به دلیل یک نقص یا الگوریتم های دچار تبعیض شده - الگوریتم هایی که نمی توانند چهره های سیاه را تشخیص دهند یا در کارهای پلیسی و مجازات های جنایی سوگیری های نژادی از خود نشان می دهند- از روی آنها برداشته شود. آیا واقعا می خواهیم پنتاگون از همین فناوری برای تعیین این استفاده کند که روی سرچه کسی باید بمب انداخت؟

اما مشکل عمیق تر این استدلال بشردوستانه برای رزم الگوریتمی، این فرض است که ارتش آمریکا ضرورتا نیرویی خیرخواهانه است. میلیون ها تن در سراسر جهان چنین چیزی را قبول ندارند. تنها در سال 2017 حملات آمریکا و متحدانش در عراق و سوریه موجب کشته شدن تا 6 هزار غیرنظامی شده اند.  چنین ارقامی احتمالا نشانگر چند اشتباه صادقانه دراینجا و آنجا نیست، بلکه از یک بی تفاوتی سیستماتیک نسبت به «تلفات جانبی» خبر می دهند. در واقع دولت آمریکا مکررا گردهمایی های غیرنظامیان مثل مجالس عروسی را به این امید که بتواند یک هدف با ارزش بالا را به قتل برساند مورد بمباران قرار داده است.


بعلاوه مرز بین غیرنظامی و ستیزه جو در عصر جنگ همیشگی به شدت مخدوش شده است. یک گزارش از اینترسپت  حکایت از این دارد که ارتش آمریکا هرکسی را که در حملات «هدفگیری شده» خود به قتل می رساند، با عنوان «دشمن کشته شده در حال اقدام»  طبقه بندی می کند، حتی اگر یکی از این اهداف نباشند. این به اصطلاح «حملات امضایی» که از طرف ارتش آمریکا و سیا انجام می شوند، حقه مشابهی را درمورد مفهوم ستیزه جو به کار می برند. این ها حملات پهبادی به افرادی با هویت شناخته شده نیستند، بلکه بر اساس مشاهده «امضاهایی» مشخص از کسانی که ظن آن می رود ستیزه جو باشند انجام می شوند؛ امضاهای مبهمی که بسیار محتمل است مختصات مورد نظر را با چیزهایی مشابه اشتباه بگیرند.


به عبارت دیگر مشکل در کیفیت ابزارها نیست، بلکه در سازمانی است که آنها را تولید می کند. و هوش مصنوعی تنها آن سازمان را بی رحم تر می کند. جنگ همیشگی اقتضا می کند که آمریکا دشمنان خود را در همه جا ببیند. هوش مصنوعی وعده می دهد که این دشمنان را سریع تر پیدا کند؛ حتی اگر  تمام چیزی که یک دشمن تلقی می شود، مشاهده یک الگوی رفتاری باشد که یک مدل یادگیری ماشینی (طبقه بندی شده) آن را با فعالیت های خصمانه مرتبط می کند. می توانید این کار را مرگ به دست داده های دیجیتال بزرگ بنامید.


هوش مصنوعی همچنین با  دادن امتیازاتی به برخی از بزرگ ترین شرکت های کشور برای استمرار بخشیدن به این جنگ ها، پتانسیل این را دارد که جنگ همیشگی را همیشگی تر کند. سیلیکون ولی همیشه ارتباطات نزدیکی با ارتش آمریکا داشته است اما رزم الگوریتمی عمق بیشتری به رابطه شرکت های بزرگ فناوری با مجموعه نظامی- صنعتی می دهد و به میلیاردرهایی چون جف بزوس انگیزه ای قدرتمند می بخشد تا اطمینان حاصل کنند که جنگ همیشگی برای همیشه ادامه پیدا می کند. دشمنانی پیدا خواهند شد و پول هایی به جیب زده خواهد شد.

 

 

تازه ترین خبرها(روزنامه، سیاست و جامعه، حوادث، اقتصادی، ورزشی، دانشگاه و...)

    ----------------        سیــاست و اقتصــاد با بیتوتــــه      ------------------

    

    ----------------        همچنین در بیتوته بخوانید       -----------------------