OpenAI کمپانی تحقیقاتی هوش مصنوعی غیرانتفاعی که ایلان ماسک یکی از موسسان آن است، اعلام کرده که این کارآفرین بزرگ تکنولوژی از سمت خود در هیات مدیره این شرکت کناره گیری می کند. براساس اعلامیه رسمی شرکت، علت کناره گیری ماسک تا حدی بخاطر پروژه های هوش مصنوعی شرکت تسلا می باشد که می تواند باعث بروز تضاد منافع در آینده شود.
اما کناره گیری ماسک از هیات مدیره OpenAI به معنی این نیست که او رابطه خود را با شرکت قطع میکند. شرکت در یک پست وبلاگی درباره حامیان مالی جدیدش، تصریح کرده که مدیرعامل تسلا همچنان به حمایت مالی و مشاوره ای خود از شرکت ادامه خواهد داد.
ایلان ماسک تنها از هیات مدیره شرکت کناره گیری میکند و به حمایت مالی و مشاوره ای خود به سازمان ادامه خواهد داد. از آنجا که شرکت تسلا در حال تمرکز بیشتر برروی مبحث هوش مصنوعی است، کناره گیری او از هیات مدیره، خطر بروز تضاد منافع در آینده را برای ایلان از بین می برد.
تسلا به توسعه تدریجی سیستم آتوپایلت (رانندگی توسط ماشین به جای انسان) خود ادامه خواهد داد و در نظر دارد تا اولین رانندگی کاملا خودکار ساحل به ساحل خود را در سال جاری نهایی کند. گفته شده که این تولید کننده اتومبیل های برقی «سیلیکون ولی» بر روی تراشه های مبتنی هوش مصنوعی خودش کار میکند تا توان ناوگان خودروهای بدون راننده خود را در آینده تامین کنند. ماسک پارسال در کنفرانسی درباره «یادگیری ماشین» از تلاش هایش برای تولید یک تراشه سفارشی مبتنی بر هوش مصنوعی پرده برداشته بود و به حاضرین گفته بود که تسلا در حال طراحی یک سخت افزار هوش مصنوعی سفارشی است که «بهترین در جهان» خواهد بود. به گزارش The Register ، ماسک به حاضرین گفت «خواستم خیلی واضح اعلام کنم که تسلا درباره هوش مصنوعی جدی است، چه در بخش نرم افزار و چه در سخت افزار. ما تراشه های سخت افزاری هوش مصنوعی سفارشی طراحی میکنیم.»
کناره گیری ماسک از هیات مدیره ی OpenAI تصمیمی منطقی به نظر می رسد. تمرکز او بر توسعه سیستم های پیشرفته هوش مصنوعی می تواند توسط یک شرکت غیرانتفاعی که در نظر دارد تا اطمینان حاصل کند شرکت ها به سمت هوش مصنوعی سودمند برای بشریت (در مقابل هوش مصنوعی مضر یا تهدید کننده بشریت) می روند سوء تعبیر شود. قبل از اعلام کناره گیری ایلان ماسک از هیات مدیره OpenAI، این شرکت مقاله ای پژوهشی منتشر کرد که خطرات احتمالی حملات مبتنی بر هوش مصنوعی را مورد بحث قرار داده بود. براساس تحقیقات OpenAI، اکنون زمان آن فرا رسیده است که سیاست گذاران و سایر افراد از راه هایی که میتوان از سیستم های مبتنی بر هوش مصنوعی استفاده منفی و سوء کرد مطلع شوند، بخصوص با توجه به چشم انداز همواره متحول شونده ی هوش مصنوعی.
برای انجام این تحقیق، OpenAI با چند محقق از سازمان های دیگر همکاری کرده است، که از جمله آنها می توان به آزمایشگاه آینده بشریت، مرکز مطالعات خطر وجودی، مرکز امنیت نوین آمریکایی و بنیاد مرز الکترونیک اشاره کرد. عاملان این تحقیق در مورد یافته های آن نوشته اند، در حالیکه تحقیقات گسترده و پرشماری درباره مزایای هوش مصنوعی انجام شده، شمار تحقیقات پیرامون خطرات ماشین های پیشرفته و هوشمند، به نسبت کم است. محققان OpenAI بر این باورند، همزمان که حوزه هوش مصنوعی شروع به گسترش و تحول می کند، خطرات مرتبط با تکنولوژی نیز شروع به رشد و توسعه میکند.
آن طور که در تحقیق اشاره شده، هوش مصنوعی می تواند تهدید های موجود را گسترش دهد، از آنجایی که استفاده مقیاسپذیر (دارای قابلیت افزایش بار کاری) از فناوری هوش مصنوعی می تواند برای کاهش هزینه حملات مفید باشد. با هوش مصنوعی، حتی حملات فیزیکی که به نیروی انسانی نیازمند است نیز توسط ماشین ها قابل انجام است، ماشین هایی که می توانند در محدوده ای که برنامه ریزی شده و نیز ورای آن فکر کند.
مقاله جدید شرکت OpenAI درباره ظهور تهدیدات جدید نیز گفته که این تهدیدات می توانند به واسطه استفاده از سیستم هایی که وظایف دشوار برای انسانها را انجام می دهند سر برآورد. محققان همچنین گفته اند که ممکن است در آینده ای نزدیک، زمانی فرا برسد که حملات مبتنی بر هوش مصنوعی بخوبی اهداف خود را انتخاب کنند و تشخیص منشا و عامل آنها نیز دشوار شود. با در نظر گرفتن این مساله، محققان OpenAI همراه با سایر عوامل تحقیق، مجموعه ای از حالات ممکن را معرفی کرده اند که سیاست گذاران نیز همانند افرادی که در این تحقیق شرکت کرده اند می توانند از آنها برای پیشگیری و یا اقدامات مفید در حالاتی که سیستم های هوشمند مورد استفاده های سوء قرار میگیرند بهره ببرند.
براساس این مقاله OpenAI که به تازگی منتشر شده، اکنون زمان مناسب برای سیاست گذاران فرا رسیده است تا با محققان اهل فن برای تحقیق و بررسی، پیشگیری، و کاهش استفاده های سوء بالقوه از هوش مصنوعی همکاری کنند. OpenAI همچنین به مهندسان و محققان پیشنهاد کرده به این مساله اذعان کنند که کارشان دارای کاربرد دو گانه است تا بدینوسیله این موضوع به عنوان بخشی از اولویت های تحقیقشان مورد توجه قرار بگیرد. علاوه بر این آنها درخواست کرده اند تا از روشهای بهتر برای حل این مشکل کاربرد دوگانه استفاده شود، بویژه در میان بانک داران و متخصصان دامین که در این حوزه فعالند.
در خاتمه، محققان OpenAI و سایر محققانی که در تحقیق مشارکت کرده اند اذعان کرده اند که هرچند در صنعت هوش مصنوعی مواردی هست که درباره شان شک و تردید هست اما درباره این مساله که هوش مصنوعی نقش عظیمی در آینده بازی خواهد کرد تقریبا قطعیت وجود دارد. با در نظر گرفتن این مساله، رویکرد سه گانه — متشکل از امنیت دیجیتال، امنیت فیزیکی و امنیت سیاسی — راهی بسیار خوب برای آمادگی در برابر استفاده های آینده و سوءاستفاده های احتمالی از هوش مصنوعی خواهد بود.
OpenAI که با مشارکت ایلان ماسک مدیرعامل تسلا و اسپیسایکس در سال 2015 تاسیس شد یک شرکت تحقیقاتی غیرانتفاعی است که بر آن است تا سیستم های سالم هوش عمومی مصنوعی طراحی و توزیع کند. شواهد حاکیست که OpenAI می خواهد فعالیت خود را در سال جاری افزایش دهد، همانطور که در استخدام های اخیر یک «هماهنگ کننده استخدام» دیده می شود که وظیفه اش آموزش و کمک کردن به نیروهای جدید کمپانی است.