انقلاب اخلاق هوش مصنوعی – جدول زمانی

زنان در اخلاق هوش مصنوعی

این افسانه که مردان نابغه در دره سیلیکون تنها مسئول پیشرفت‌های هوش مصنوعی هستند، با آشکارتر شدن مشارکت زنان، چهره‌های پنهان در دنیای محاسبات، کاملاً رد شد. اکنون به طور گسترده پذیرفته شده است که آدا لاولیس اولین برنامه کامپیوتری را در دهه 1800 نوشت، جوآن کلارک از مهارت های رمزنگاری خود برای کمک به متحدان غربی در طول جنگ جهانی دوم استفاده کرد، و “کامپیوترهای (انسانی)” مانند کاترین جانسون بر جداسازی نژادی غلبه کردند و از نبوغ ریاضی خود استفاده کردند. برای فرستادن اولین آمریکایی به فضا در دهه 1900.

در حالی که مردان قدرتمند و ثروتمند در سیلیکون ولی در مورد خطرات وجودی هوش مصنوعی در آینده سخن می‌گویند، همزمان از جنگ‌های هوش مصنوعی سود می‌برند، بسیاری از زنان و سایر از جوامع به حاشیه رانده شده در سراسر جهان در حال نبرد سختی هستند تا بشریت را از آسیب‌های توسعه‌یافته و بی‌ملاحظه در امان نگه دارندکه هوش مصنوعی ایجاد کرده است.

2014

.سینتیا دوورک یکی از نویسندگان مقاله « مبانی الگوریتمی حریم خصوصی متفاوت» است تا نیاز به تعریفی قوی، معنادار و ریاضی دقیق از حریم خصوصی، همراه با یک کلاس محاسباتی غنی از الگوریتم‌ها را به‌عنوان فناوری مجموعه‌ای قدرتمندتر از داده‌های الکترونیکی مورد بررسی قرار دهد.

دانیل سیترون یکی از نویسندگان « جامعه امتیازدهی شده: فرآیند مناسب برای پیش‌بینی‌های خودکار »، مقاله‌ای تحقیقاتی است که برای تضمین صحت و انصاف الگوریتم‌های پیش‌بینی، پادمان‌های رسمی را مطرح می‌کند.

2016

جولیا انگوین و تیم ProPublica مطالعه خود را در مورد امتیازهای ریسک، به عنوان بخشی از یک بررسی بزرگتر از تأثیر قدرتمند و تا حد زیادی پنهان الگوریتم‌ها در زندگی آمریکایی منتشر و تفاوت‌های نژادی قابل توجهی در توصیه‌های مجازات پیدا کردند.

کتاب «سلاح‌های تخریب ریاضی» نوشته کتی اونیل در افزایش آگاهی عمومی در مورد آسیب‌های اجتماعی الگوریتم‌ها و معرفی آن به مکالمات رایج مؤثر بود.

2017

مار هیکس مورخ « نابرابری برنامه‌ریزی شده » را منتشر کرد، تاریخچه مستندی از چگونگی از دست دادن تسلط اولیه بریتانیا در محاسبات با تبعیض سیستماتیک علیه واجد شرایط ترین کارگرانش: زنان.

گزارش AI Now 2017 منتشر شده توسط Meredith Whittaker و Kate Crawford چالش‌های نوظهور را شناسایی کرد، توصیه‌هایی را برای اطمینان از اینکه مزایای هوش مصنوعی به طور گسترده به اشتراک گذاشته می‌شود و خطرات قابل شناسایی و کاهش می‌یابد ارائه شد.

مقاله لینا خان، پارادوکس ضد انحصار آمازون در مجله حقوقی ییل منتشر شد، جایی که او خاطرنشان کرد: «اگرچه برای دهه‌ها به تکنوکرات‌ها واگذار شد، سیاست‌های ضد انحصار و رقابت بار دیگر به موضوعات مورد توجه عمومی تبدیل شدند.»

2018

تیمنیت گبرو و جوی بولاموینی مقاله تحقیقاتی مهم خود را با عنوان «شاید جنسیتی: تفاوت‌های دقت متقاطع در طبقه‌بندی جنسیت تجاری» منتشر کردند که نشان داد عملکرد سیستم‌های تشخیص چهره تجاری پیشرو برای زنان و افراد تیره پوست بدتر (کمتر دقیق) است.

مارگارت میچل، اینیولووا دبورا راجی، تیمنیت گبرو و سایر محققان چارچوب هایی را برای مستندسازی مدل های یادگیری ماشینی آموزش دیده به عنوان گامی در جهت دموکراتیزه کردن مسئولانه یادگیری ماشین و فناوری هوش مصنوعی مرتبط با افزایش شفافیت در مورد چگونگی عملکرد فناوری هوش مصنوعی، ” کارت های مدل برای گزارش مدل ” معرفی کردند.

گوگل توسط چندین تظاهرات به رهبری کارگران فناوری متحول شد، از جمله انصراف عمدتاً توسط زنان در پاسخ به حمایت گوگل و پاداش دادن به مردانی که زنان همکار خود را مورد آزار جنسی قرار دادند. مردیث ویتاکر و کلر استپلتون، سازمان‌دهندگان پیاده‌روی، بعداً نوشتند که به عنوان انتقام از نقش خود در اعتراضات کارگری تنزل رتبه یا منصوب شدند .

لوسی ساچمن و لیلی ایرانی از جمله صدها کارمند و دانشگاهی گوگل بودند که نامه ای سرگشاده نوشتند و از گوگل خواستند به کار خود در پروژه Maven پایان دهد، تلاش نظامی بحث برانگیز ایالات متحده برای توسعه هوش مصنوعی برای تجزیه و تحلیل ویدئوهای نظارتی، و حمایت از یک معاهده بین المللی منع خودمختاری. سیستم های تسلیحاتی .

گوگل بعداً از موضع خود در مورد Project Maven عقب نشینی کرد و اصول هوش مصنوعی جدیدی را برای کنترل مشارکت آینده این شرکت در پروژه های نظامی اعلام کرد.

کارول کادوالدر ، روزنامه‌نگار تحقیقی و نویسنده فیلم رسوایی داده‌های فیس‌بوک-کمبریج آنالیتیکا را افشا کرد، جایی که داده‌های شخصی میلیون‌ها کاربر فیس‌بوک بدون رضایت آنها توسط شرکت مشاوره بریتانیایی جمع‌آوری شد که عمدتاً برای تبلیغات سیاسی استفاده می‌شد.

سافیا اوموجا نوبل در کتابی که به طور گسترده مورد تحقیق قرار گرفته است، «الگوریتم‌های ظلم» این ایده را به چالش کشید که موتورهای جستجو مانند گوگل میدان بازی برابری را برای همه اشکال ایده‌ها، هویت‌ها و فعالیت‌ها ارائه می‌کنند. کتاب ویرجینیا یوبانکس، «خودکارسازی نابرابری» ، تأثیرات داده کاوی، الگوریتم‌های خط‌مشی، و مدل‌های ریسک پیش‌بینی‌کننده بر طبقه فقیر و کارگر را بررسی کرد تا دریافت که الگوریتم‌های مورد استفاده در خدمات عمومی اغلب آسیب‌پذیرترین افراد در آمریکا شکست خورده‌اند.

2019

جوی بولاموینی در مقابل کنگره ایالات متحده در مورد محدودیت‌های فناوری تشخیص چهره شهادت داد و از کنگره خواست تا یک مهلت قانونی اتخاذ کند که در آن استفاده مجری قانون از تشخیص چهره یا سایر فناوری‌های آنالیز چهره ممنوع شود. او با همکاری Inioluwa Deborah Raji یک مقاله بعدی را برای تجزیه و تحلیل تأثیر نامگذاری عمومی و افشای نتایج عملکرد سیستم های هوش مصنوعی مغرضانه نوشت.

Imagenet که در سال 2007 توسط محققان استنفورد و پرینستون ایجاد شد، استاندارد طلایی برای پایگاه داده های تصویری در نظر گرفته می شود. کیت کرافورد پروژه Imagenet Roulette را رهبری کرد که محتوای نژادپرستانه و جنسیت‌گرایانه را کشف کرد و منجر به حذف بیش از نیم میلیون تصویر از پایگاه داده شد.

Mary L. Gray یکی از نویسندگان ” کار ارواح: چگونه دره سیلیکون را از ساختن یک طبقه زیرین جدید متوقف کنیم ” را نوشت که نشان می دهد بسیاری از “هوش” در فناوری نتیجه بهره برداری از نیروی کار گسترده و نامرئی انسانی است.

هشت سال تحقیق توسط سارا تی رابرتسون در ” پشت صفحه: تعدیل محتوا در سایه رسانه های اجتماعی ” به اوج رسید، که به طور گسترده آثار عاطفی تعدیل محتوا را بر نیروی کار نامرئی که به سختی دستمزد دریافت می کنند، مستند می کند.

شوشانا زوبوف ” عصر سرمایه داری نظارتی: مبارزه برای آینده انسانی در مرز جدید قدرت ” نشان می دهد که مدل های تجاری گوگل و آمازون شکل جدیدی از “سرمایه داری نظارتی” را نشان می دهد.

روها بنجامین در کتاب خود، ” مسابقه پس از فناوری: ابزارهای لغو برای قانون جدید جیم “، چگونگی رمزگذاری طیفی از طرح های تبعیض آمیز را با تقویت صریح سلسله مراتب نژادی، آشکار می کند.

2020

گوگل Timnit Gebru را به دلیل مقاله بسیار تحسین شده (منتشر شده در مارس 2021) اخراج کرد، ” درباره خطرات طوطی های تصادفی: آیا مدل های زبانی می توانند خیلی بزرگ باشند؟” “، که او با همکاری مارگارت میچل، امیلی بندر و آنجلینا مک میلان میجر به نگارش درآمد. این مقاله خطرات احتمالی مرتبط با مدل‌های بزرگ یادگیری ماشین را برجسته کرد و کاوش راه‌حل‌هایی را برای کاهش این خطرات پیشنهاد کرد. دکتر گبرو پس از اخراج، هدف یک کمپین آزار و اذیت طولانی مدت قرار گرفت که توسط حساب‌های ناشناس در توییتر تقویت شد.

Abebe Birhane و Vinay Prabhu مقاله تحقیقاتی خود را منتشر کردند ” مجموعه داده های تصویری بزرگ: یک پیروزی pyrrhic برای بینایی کامپیوتر؟ که مجموعه‌های داده عظیمی را یافت که برای توسعه هزاران الگوریتم و سیستم هوش مصنوعی استفاده می‌شد که حاوی برچسب‌ها و توهین‌های نژادپرستانه و زن‌ستیزانه و همچنین تصاویر توهین‌آمیز بود. MIT و سایرین از جمله مایکروسافت پایگاه‌های داده‌ای را که برای محققان در نظر گرفته شده بود را حذف کردند ، اما داده‌های آنها هنوز به صورت آنلاین باقی می‌ماند .

آمازون پس از مخالفت اولیه با یافته های محققان، استفاده پلیس از فناوری تشخیص چهره خود را متوقف کرد. در همان سال، اولین مدیر عامل رنگی آی‌بی‌ام، آرویند کریشنا نیز اعلام کرد که این شرکت از تجارت تشخیص چهره خارج می‌شود .

فیسبوک 2 سال پس از رسوایی کمبریج آنالیتیکا، اولین هیئت نظارت خود را راه اندازی کرد. در پاسخ، گروهی از کارشناسان صنعت از جمله شوشانا زوبوف، کارول کادوالدر، سافیا نوبل، روها بنجامین و دیگران «هیئت نظارت واقعی فیس‌بوک» را راه‌اندازی کردند تا تصمیمات، سیاست‌ها و سایر مسائل پلتفرم مربوط به نظارت محتوای فیس‌بوک را تحلیل و نقد کنند.

ساشا کوستانزا-چاک « طراحی عدالت: شیوه‌های رهبری جامعه برای ساختن جهان‌هایی که نیاز داریم » را منتشر کرد، یک کاوش قدرتمند در مورد اینکه چگونه طراحی ممکن است توسط جوامع به حاشیه رانده شده رهبری شود، نابرابری ساختاری را از بین ببرد، و رهایی جمعی و بقای اکولوژیکی را پیش ببرد.

ساشا (الکساندرا) لوچونی “ماشین حساب انتشارات یادگیری ماشین” را توسعه داد، ابزاری برای تخمین تاثیر کربن فرآیندهای یادگیری ماشین، و آن را همراه با مسائل و چالش های مرتبط در این مقاله، “تخمین انتشار کربن از هوش مصنوعی” ارائه کرد .

2021

گوگل مارگارت میچل، سرپرست تیم هوش مصنوعی اخلاقی خود را اخراج کرد که همراه با تیمنیت گبرو خواستار تنوع بیشتر در میان کارکنان تحقیقاتی گوگل شده بود و ابراز نگرانی کرده بود که این شرکت شروع به سانسور تحقیقات انتقادی محصولات خود کرده است.

گبرو در سالگرد برکناری اش، موسسه تحقیقاتی هوش مصنوعی توزیع شده (DAIR) را راه اندازی کرد – موسسه ای مستقل و با ریشه در جامعه که برای مقابله با نفوذ فراگیر فناوری بزرگ در تحقیق، توسعه و استقرار هوش مصنوعی قرار دارد.

امیلی دنتون، الکس هانا و همکارانشان « در مورد تبارشناسی مجموعه داده‌های یادگیری ماشینی: تاریخچه حیاتی ImageNet ، برای پیشنهاد مداخلات بازتابی در طول توسعه مجموعه داده، مرحله ایده‌پردازی/طراحی اولیه، مراحل ایجاد و جمع‌آوری و نگهداری بعدی منتشر کردند. و مراحل ذخیره سازی

لینا خان به عنوان رئیس کمیسیون تجارت فدرال (FTC) منصوب شد و چندین اضافه جدید به دفتر برنامه ریزی سیاست FTC از جمله مردیث ویتاکر، آمبا کاک و سارا مایرز وست به عنوان بخشی از یک گروه غیررسمی استراتژی هوش مصنوعی اعلام کرد.

FTC گزارشی به کنگره صادر کرد و در مورد استفاده از هوش مصنوعی برای مبارزه با مشکلات آنلاین هشدار داد و از سیاستگذاران خواست تا در مورد تکیه بر آن به عنوان یک راه حل سیاسی “احتیاط زیادی” به خرج دهند.

افشاگر فرانسیس هاوگن، دانشمند سابق داده در فیس بوک، در جلسه استماع سنای ایالات متحده شهادت داد که «الگوریتم فیس بوک اطلاعات نادرست را تقویت کرد» و «به طور مداوم رشد خود را به حداکثر رساندن به جای اجرای پادمان ها بر روی پلتفرم های خود انتخاب کرد».

فرماندار کالیفرنیا ” قانون ساکت و نه بیشتر ” را امضا کرد که توسط سناتور ایالتی کانی لیوا و توسط افشاگر پینترست، Ifeoma Ozoma آغاز شده بود تا از کارگرانی که در مورد آزار و اذیت و تبعیض صحبت می کنند حتی اگر توافق نامه عدم افشا (NDA) را امضا کرده باشند، محافظت کند. اوزوما همچنین یک راهنمای منبع آنلاین رایگان برای افشاگران فناوری راه‌اندازی کرد، به نام « کتاب راهنمای Tech Worker ».

2022

پس از یک سال تعامل با مردم و بحث با کارشناسان هوش مصنوعی، دکتر آلوندرا نلسون و کاخ سفید پرزیدنت بایدن طرح اولیه منشور حقوق هوش مصنوعی را منتشر کردند .

کوری کرایدر و تیم او در Foxglove، یک سازمان غیردولتی مستقر در لندن، حمایت خود را از یک مورد جدید بزرگ که خواستار تغییر اساسی در الگوریتم فیس بوک است، با اولویت دادن به ایمنی کاربران ساکن در شرق و جنوب آفریقا اعلام کردند. در صورت موفقیت، این اولین باری است که یک پرونده تغییراتی در الگوریتم فیس بوک ایجاد می کند. گروه او همچنین از سال 2019 با ناظران محتوای فیس بوک کار کرده است تا به پایان بهره برداری از آنها کمک کند و یک جلسه توجیهی برای از بین بردن افسانه های آمازون در مورد انبارهای ناامن و مدیریت آن توسط الگوریتم تشکیل دهد .

2023

Hilke Schellmann در تحقیقات گاردین درباره الگوریتم‌های هوش مصنوعی مورد استفاده پلتفرم‌های رسانه‌های اجتماعی همکاری کرد و دریافت که بسیاری از این الگوریتم‌ها دارای تعصب جنسیتی هستند و ممکن است دسترسی به عکس‌های بدن زنان را سانسور و سرکوب کنند.

نویسندگان Stochastic Parrots به نامه سرگشاده “مکث هوش مصنوعی” پاسخ دادند و بیان کردند که “مضرات به اصطلاح هوش مصنوعی واقعی و موجود است و از اعمال افراد و شرکت‌هایی که سیستم‌های خودکار را به کار می‌گیرند، ناشی می‌شود. تلاش‌های نظارتی باید بر شفافیت، مسئولیت‌پذیری و جلوگیری از شیوه‌های استثماری کار متمرکز شود.»

ترجمه توسط گوگل از سایت :

https://medium.com/women-in-ai-ethics/the-ai-ethics-revolution-a-timeline-276593eef416

امتیاز بدهید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *