تصویب چارچوب‌های اخلاقی در برابر اقدامات تبعیض آمیز هوش مصنوعی

artifical intelligence
  • twiter
  • linked-in
  • whatsapp

جمعی از گروه های حقوق بشری خواستار تصویب چهارچوب های اخلاقی جهت هدایت توسعه الگوریتم‌های یادگیری ماشین شدند تا این اطمینان حاصل شود که فناوری‌های جدید هوش مصنوعی فاقد هرگونه تبعیض و اثرات بد هستند.

اعلامیه تورنتو به اهتمام ائتلاف گروه های حقوق بشری در راستای رفع تبعیض و غرض‌ورزی از الگوریتم‌های یادگیری ماشین صادر شده است. این بیانیه شامل رهنمودهایی برای دولت‌ها و شرکت های خصوصی می شود تا اقدامی علیه هوش مصنوعی متعصب و تبعیض آلود داشته باشند.

اعلامیه تورنتو که پیش نویس آن توسط سازمان عفو بین الملل آماده شد و سپس به امضا و تصویب بنیاد مرزهای الکترونیکی (Wikimedia Foundation) و دیده بان حقوق بشر (Human Rights Watch) رسید برآن است تا به خطرات آسیب‌های حقوق بشری نشات گرفته از بکارگیری سیستم های یادگیری ماشین بپردازد.

آنا باسیارلی (Anna Bacciarelli) از اعضای سازمان عفو بین الملل می گوید

اعلامیه تورنتو منحصر به محیط هایی می شود که استانداردهای ملموس و قابل تعقیب قانونی را برای کشورها و بخش های خصوصی وضع کرده تا اصول برابری (مساوات) و عدم تبعیض را طبق قوانین الزام آور حقوق بشر رعایت کنند.

اعلامیه مزبور چهارچوب جامعی جهت هدایت دولت‌ها و شرکت‌های خصوصی در توسعه و اجرای فناوری‌های هوش مصنوعی مطرح می‌کند. این اقدام گام جالبی برای سازمان های حقوق بشری است که می کوشند تاثیرات اجتماعی برخی فناوری‌های پیشرفته را با فضاهای اجتماعی ادغام کنند.

از جمله توصیه‌ها و پیشنهادات بیانیه تورنتو این بوده که شرکت های خصوصی ریسک سوگیری وارد شدن به سیستمی از طریق داده های آموزشی ناقص یادگیری ماشین را درنظر بگیرند، و دولت ها پیامدهای بالقوه تبعیض حین اکتساب و اجرای این فناوری ها را ارزیابی کنند.

علیرغم آنکه اعلامیه تورنتو ماهیتی کاملا نمادین دارد اما گام و حرکت بجا و بموقعی از سوی گروه های حقوق بشری محسوب می شود. بدون تردید الگوریتم های یادگیری ماشین عامل ایجاد رخدادهای دردسرساز و سوگیرانه بیشماری در فناوری ها خواهند بود.

محققان ام آی تی (MIT) و دانشگاه استنفورد (Stanford) اوایل امسال عنوان کردند که سه سیستم تشخیص چهره اصلی نرخ خطای قابل توجه و معناداری برای افراد غیر سفیدپوست و مونث ها داشتند. از نظر محققان این سیستم های معیوب حاصل الگوریتم های یادگیری ماشین با مجموعه داده‌های حاوی تعداد زیادی مرد سفیدپوست نسبت به جنسیت مونث و سایر نژادها بودند. تازه اوج نگرانی زمانی است که متوجه می شویم موسسات اجرای قانون و سازمان های خدمات درمانی تا بحال از این سیستم‌های تشخیص چهره استفاده می‌کردند.

همچنین بخوانید :

مسئله نگران کننده تر گزارشی در سال 2016 بود؛ سیستم کامپیوتری دادگاه آمریکا جهت اطلاع رسانی قاضیان درباره ارتکاب جرم بود که احتمال ارتکاب مجدد به جرم سیاه پوستان را دوبرابر سفیدپوستان درنظر می گیرد. سیستم مزبور که «سازماندهی مدیریت جرایم اصلاحی برای قوانین جایگزین (Compas)» اطلاق می شود، سال های سال راهنمای احکام قضات بوده اما این گزارش صراحتا نشان می‌دهد که سوگیری نژادی درونی آن تعصب و تبعیض را در نظام عدالت کیفری همیشگی می‌سازد.

اما کمپانی پشتیبان Compas با رد این گزارش مدعی شد که این نظام، خطرات را براساس سوالات مختلفی ارزیابی می کند که هیچ کدام مشخصا اشاره ای به نژاد ندارند. از سوی دیگر، گزارش مزبور نمرات ریسک 7000 نفر را بررسی کرد و سپس چند سال بعد این نمرات را در واقعیت با ارتکاب مجدد جرم مقایسه کرد. گرچه الگوریتم ها مشخصا اشاره ای به نژاد ندارند، با این حال سوگیری همچنان وجود دارد و سیستم نرخ ارتکاب جرم مجدد سیاه پوستان را به طور بالقوه دوبرابر سفیدپوستان در نظر می گیرد.

اگرچه اعلامیه تورنتو در حال حاضر از لحاظ قانونی اجباری نیست؛ اما محققان قویا خواهان الزام قانونی آن هستند چرا که اصولا مبتنی بر قوانین بین المللی حقوق بشری بوده که چهارچوب قانونی مصوبی محسوب می شود. هر چند این بیانیه صرفا اولین گام کوچکی است که برداشته شده اما همزمان گام مهمی نیز بشمار می رود؛ چرا که روز به روز بر تعداد سیستم های جهانی کنترل شده با هوش مصنوعی در الگوریتم های یادیگیری ماشین افزوده خواهد شد.

{{farsiNumber(model.mPrc.data && model.mPrc.data.rate)}}
تعداد رای: {{farsiNumber(model.mPrc.data && model.mPrc.data.count)}} نفر
{{farsiNumber(n)}}
دیدگاه شما
captcha
جدول فروش فیلم ها