انقلاب اخلاق هوش مصنوعی – جدول زمانی
این افسانه که مردان نابغه در دره سیلیکون تنها مسئول پیشرفتهای هوش مصنوعی هستند، با آشکارتر شدن مشارکت زنان، چهرههای پنهان در دنیای محاسبات، کاملاً رد شد. اکنون به طور گسترده پذیرفته شده است که آدا لاولیس اولین برنامه کامپیوتری را در دهه 1800 نوشت، جوآن کلارک از مهارت های رمزنگاری خود برای کمک به متحدان غربی در طول جنگ جهانی دوم استفاده کرد، و “کامپیوترهای (انسانی)” مانند کاترین جانسون بر جداسازی نژادی غلبه کردند و از نبوغ ریاضی خود استفاده کردند. برای فرستادن اولین آمریکایی به فضا در دهه 1900.
در حالی که مردان قدرتمند و ثروتمند در سیلیکون ولی در مورد خطرات وجودی هوش مصنوعی در آینده سخن میگویند، همزمان از جنگهای هوش مصنوعی سود میبرند، بسیاری از زنان و سایر از جوامع به حاشیه رانده شده در سراسر جهان در حال نبرد سختی هستند تا بشریت را از آسیبهای توسعهیافته و بیملاحظه در امان نگه دارندکه هوش مصنوعی ایجاد کرده است.
2014
.سینتیا دوورک یکی از نویسندگان مقاله « مبانی الگوریتمی حریم خصوصی متفاوت» است تا نیاز به تعریفی قوی، معنادار و ریاضی دقیق از حریم خصوصی، همراه با یک کلاس محاسباتی غنی از الگوریتمها را بهعنوان فناوری مجموعهای قدرتمندتر از دادههای الکترونیکی مورد بررسی قرار دهد.
دانیل سیترون یکی از نویسندگان « جامعه امتیازدهی شده: فرآیند مناسب برای پیشبینیهای خودکار »، مقالهای تحقیقاتی است که برای تضمین صحت و انصاف الگوریتمهای پیشبینی، پادمانهای رسمی را مطرح میکند.
2016
جولیا انگوین و تیم ProPublica مطالعه خود را در مورد امتیازهای ریسک، به عنوان بخشی از یک بررسی بزرگتر از تأثیر قدرتمند و تا حد زیادی پنهان الگوریتمها در زندگی آمریکایی منتشر و تفاوتهای نژادی قابل توجهی در توصیههای مجازات پیدا کردند.
کتاب «سلاحهای تخریب ریاضی» نوشته کتی اونیل در افزایش آگاهی عمومی در مورد آسیبهای اجتماعی الگوریتمها و معرفی آن به مکالمات رایج مؤثر بود.
2017
مار هیکس مورخ « نابرابری برنامهریزی شده » را منتشر کرد، تاریخچه مستندی از چگونگی از دست دادن تسلط اولیه بریتانیا در محاسبات با تبعیض سیستماتیک علیه واجد شرایط ترین کارگرانش: زنان.
گزارش AI Now 2017 منتشر شده توسط Meredith Whittaker و Kate Crawford چالشهای نوظهور را شناسایی کرد، توصیههایی را برای اطمینان از اینکه مزایای هوش مصنوعی به طور گسترده به اشتراک گذاشته میشود و خطرات قابل شناسایی و کاهش مییابد ارائه شد.
مقاله لینا خان، پارادوکس ضد انحصار آمازون در مجله حقوقی ییل منتشر شد، جایی که او خاطرنشان کرد: «اگرچه برای دههها به تکنوکراتها واگذار شد، سیاستهای ضد انحصار و رقابت بار دیگر به موضوعات مورد توجه عمومی تبدیل شدند.»
2018
تیمنیت گبرو و جوی بولاموینی مقاله تحقیقاتی مهم خود را با عنوان «شاید جنسیتی: تفاوتهای دقت متقاطع در طبقهبندی جنسیت تجاری» منتشر کردند که نشان داد عملکرد سیستمهای تشخیص چهره تجاری پیشرو برای زنان و افراد تیره پوست بدتر (کمتر دقیق) است.
مارگارت میچل، اینیولووا دبورا راجی، تیمنیت گبرو و سایر محققان چارچوب هایی را برای مستندسازی مدل های یادگیری ماشینی آموزش دیده به عنوان گامی در جهت دموکراتیزه کردن مسئولانه یادگیری ماشین و فناوری هوش مصنوعی مرتبط با افزایش شفافیت در مورد چگونگی عملکرد فناوری هوش مصنوعی، ” کارت های مدل برای گزارش مدل ” معرفی کردند.
گوگل توسط چندین تظاهرات به رهبری کارگران فناوری متحول شد، از جمله انصراف عمدتاً توسط زنان در پاسخ به حمایت گوگل و پاداش دادن به مردانی که زنان همکار خود را مورد آزار جنسی قرار دادند. مردیث ویتاکر و کلر استپلتون، سازماندهندگان پیادهروی، بعداً نوشتند که به عنوان انتقام از نقش خود در اعتراضات کارگری تنزل رتبه یا منصوب شدند .
لوسی ساچمن و لیلی ایرانی از جمله صدها کارمند و دانشگاهی گوگل بودند که نامه ای سرگشاده نوشتند و از گوگل خواستند به کار خود در پروژه Maven پایان دهد، تلاش نظامی بحث برانگیز ایالات متحده برای توسعه هوش مصنوعی برای تجزیه و تحلیل ویدئوهای نظارتی، و حمایت از یک معاهده بین المللی منع خودمختاری. سیستم های تسلیحاتی .
گوگل بعداً از موضع خود در مورد Project Maven عقب نشینی کرد و اصول هوش مصنوعی جدیدی را برای کنترل مشارکت آینده این شرکت در پروژه های نظامی اعلام کرد.
کارول کادوالدر ، روزنامهنگار تحقیقی و نویسنده فیلم رسوایی دادههای فیسبوک-کمبریج آنالیتیکا را افشا کرد، جایی که دادههای شخصی میلیونها کاربر فیسبوک بدون رضایت آنها توسط شرکت مشاوره بریتانیایی جمعآوری شد که عمدتاً برای تبلیغات سیاسی استفاده میشد.
سافیا اوموجا نوبل در کتابی که به طور گسترده مورد تحقیق قرار گرفته است، «الگوریتمهای ظلم» این ایده را به چالش کشید که موتورهای جستجو مانند گوگل میدان بازی برابری را برای همه اشکال ایدهها، هویتها و فعالیتها ارائه میکنند. کتاب ویرجینیا یوبانکس، «خودکارسازی نابرابری» ، تأثیرات داده کاوی، الگوریتمهای خطمشی، و مدلهای ریسک پیشبینیکننده بر طبقه فقیر و کارگر را بررسی کرد تا دریافت که الگوریتمهای مورد استفاده در خدمات عمومی اغلب آسیبپذیرترین افراد در آمریکا شکست خوردهاند.
2019
جوی بولاموینی در مقابل کنگره ایالات متحده در مورد محدودیتهای فناوری تشخیص چهره شهادت داد و از کنگره خواست تا یک مهلت قانونی اتخاذ کند که در آن استفاده مجری قانون از تشخیص چهره یا سایر فناوریهای آنالیز چهره ممنوع شود. او با همکاری Inioluwa Deborah Raji یک مقاله بعدی را برای تجزیه و تحلیل تأثیر نامگذاری عمومی و افشای نتایج عملکرد سیستم های هوش مصنوعی مغرضانه نوشت.
Imagenet که در سال 2007 توسط محققان استنفورد و پرینستون ایجاد شد، استاندارد طلایی برای پایگاه داده های تصویری در نظر گرفته می شود. کیت کرافورد پروژه Imagenet Roulette را رهبری کرد که محتوای نژادپرستانه و جنسیتگرایانه را کشف کرد و منجر به حذف بیش از نیم میلیون تصویر از پایگاه داده شد.
Mary L. Gray یکی از نویسندگان ” کار ارواح: چگونه دره سیلیکون را از ساختن یک طبقه زیرین جدید متوقف کنیم ” را نوشت که نشان می دهد بسیاری از “هوش” در فناوری نتیجه بهره برداری از نیروی کار گسترده و نامرئی انسانی است.
هشت سال تحقیق توسط سارا تی رابرتسون در ” پشت صفحه: تعدیل محتوا در سایه رسانه های اجتماعی ” به اوج رسید، که به طور گسترده آثار عاطفی تعدیل محتوا را بر نیروی کار نامرئی که به سختی دستمزد دریافت می کنند، مستند می کند.
شوشانا زوبوف ” عصر سرمایه داری نظارتی: مبارزه برای آینده انسانی در مرز جدید قدرت ” نشان می دهد که مدل های تجاری گوگل و آمازون شکل جدیدی از “سرمایه داری نظارتی” را نشان می دهد.
روها بنجامین در کتاب خود، ” مسابقه پس از فناوری: ابزارهای لغو برای قانون جدید جیم “، چگونگی رمزگذاری طیفی از طرح های تبعیض آمیز را با تقویت صریح سلسله مراتب نژادی، آشکار می کند.
2020
گوگل Timnit Gebru را به دلیل مقاله بسیار تحسین شده (منتشر شده در مارس 2021) اخراج کرد، ” درباره خطرات طوطی های تصادفی: آیا مدل های زبانی می توانند خیلی بزرگ باشند؟” “، که او با همکاری مارگارت میچل، امیلی بندر و آنجلینا مک میلان میجر به نگارش درآمد. این مقاله خطرات احتمالی مرتبط با مدلهای بزرگ یادگیری ماشین را برجسته کرد و کاوش راهحلهایی را برای کاهش این خطرات پیشنهاد کرد. دکتر گبرو پس از اخراج، هدف یک کمپین آزار و اذیت طولانی مدت قرار گرفت که توسط حسابهای ناشناس در توییتر تقویت شد.
Abebe Birhane و Vinay Prabhu مقاله تحقیقاتی خود را منتشر کردند ” مجموعه داده های تصویری بزرگ: یک پیروزی pyrrhic برای بینایی کامپیوتر؟ که مجموعههای داده عظیمی را یافت که برای توسعه هزاران الگوریتم و سیستم هوش مصنوعی استفاده میشد که حاوی برچسبها و توهینهای نژادپرستانه و زنستیزانه و همچنین تصاویر توهینآمیز بود. MIT و سایرین از جمله مایکروسافت پایگاههای دادهای را که برای محققان در نظر گرفته شده بود را حذف کردند ، اما دادههای آنها هنوز به صورت آنلاین باقی میماند .
آمازون پس از مخالفت اولیه با یافته های محققان، استفاده پلیس از فناوری تشخیص چهره خود را متوقف کرد. در همان سال، اولین مدیر عامل رنگی آیبیام، آرویند کریشنا نیز اعلام کرد که این شرکت از تجارت تشخیص چهره خارج میشود .
فیسبوک 2 سال پس از رسوایی کمبریج آنالیتیکا، اولین هیئت نظارت خود را راه اندازی کرد. در پاسخ، گروهی از کارشناسان صنعت از جمله شوشانا زوبوف، کارول کادوالدر، سافیا نوبل، روها بنجامین و دیگران «هیئت نظارت واقعی فیسبوک» را راهاندازی کردند تا تصمیمات، سیاستها و سایر مسائل پلتفرم مربوط به نظارت محتوای فیسبوک را تحلیل و نقد کنند.
ساشا کوستانزا-چاک « طراحی عدالت: شیوههای رهبری جامعه برای ساختن جهانهایی که نیاز داریم » را منتشر کرد، یک کاوش قدرتمند در مورد اینکه چگونه طراحی ممکن است توسط جوامع به حاشیه رانده شده رهبری شود، نابرابری ساختاری را از بین ببرد، و رهایی جمعی و بقای اکولوژیکی را پیش ببرد.
ساشا (الکساندرا) لوچونی “ماشین حساب انتشارات یادگیری ماشین” را توسعه داد، ابزاری برای تخمین تاثیر کربن فرآیندهای یادگیری ماشین، و آن را همراه با مسائل و چالش های مرتبط در این مقاله، “تخمین انتشار کربن از هوش مصنوعی” ارائه کرد .
2021
گوگل مارگارت میچل، سرپرست تیم هوش مصنوعی اخلاقی خود را اخراج کرد که همراه با تیمنیت گبرو خواستار تنوع بیشتر در میان کارکنان تحقیقاتی گوگل شده بود و ابراز نگرانی کرده بود که این شرکت شروع به سانسور تحقیقات انتقادی محصولات خود کرده است.
گبرو در سالگرد برکناری اش، موسسه تحقیقاتی هوش مصنوعی توزیع شده (DAIR) را راه اندازی کرد – موسسه ای مستقل و با ریشه در جامعه که برای مقابله با نفوذ فراگیر فناوری بزرگ در تحقیق، توسعه و استقرار هوش مصنوعی قرار دارد.
امیلی دنتون، الکس هانا و همکارانشان « در مورد تبارشناسی مجموعه دادههای یادگیری ماشینی: تاریخچه حیاتی ImageNet ، برای پیشنهاد مداخلات بازتابی در طول توسعه مجموعه داده، مرحله ایدهپردازی/طراحی اولیه، مراحل ایجاد و جمعآوری و نگهداری بعدی منتشر کردند. و مراحل ذخیره سازی
لینا خان به عنوان رئیس کمیسیون تجارت فدرال (FTC) منصوب شد و چندین اضافه جدید به دفتر برنامه ریزی سیاست FTC از جمله مردیث ویتاکر، آمبا کاک و سارا مایرز وست به عنوان بخشی از یک گروه غیررسمی استراتژی هوش مصنوعی اعلام کرد.
FTC گزارشی به کنگره صادر کرد و در مورد استفاده از هوش مصنوعی برای مبارزه با مشکلات آنلاین هشدار داد و از سیاستگذاران خواست تا در مورد تکیه بر آن به عنوان یک راه حل سیاسی “احتیاط زیادی” به خرج دهند.
افشاگر فرانسیس هاوگن، دانشمند سابق داده در فیس بوک، در جلسه استماع سنای ایالات متحده شهادت داد که «الگوریتم فیس بوک اطلاعات نادرست را تقویت کرد» و «به طور مداوم رشد خود را به حداکثر رساندن به جای اجرای پادمان ها بر روی پلتفرم های خود انتخاب کرد».
فرماندار کالیفرنیا ” قانون ساکت و نه بیشتر ” را امضا کرد که توسط سناتور ایالتی کانی لیوا و توسط افشاگر پینترست، Ifeoma Ozoma آغاز شده بود تا از کارگرانی که در مورد آزار و اذیت و تبعیض صحبت می کنند حتی اگر توافق نامه عدم افشا (NDA) را امضا کرده باشند، محافظت کند. اوزوما همچنین یک راهنمای منبع آنلاین رایگان برای افشاگران فناوری راهاندازی کرد، به نام « کتاب راهنمای Tech Worker ».
2022
پس از یک سال تعامل با مردم و بحث با کارشناسان هوش مصنوعی، دکتر آلوندرا نلسون و کاخ سفید پرزیدنت بایدن طرح اولیه منشور حقوق هوش مصنوعی را منتشر کردند .
کوری کرایدر و تیم او در Foxglove، یک سازمان غیردولتی مستقر در لندن، حمایت خود را از یک مورد جدید بزرگ که خواستار تغییر اساسی در الگوریتم فیس بوک است، با اولویت دادن به ایمنی کاربران ساکن در شرق و جنوب آفریقا اعلام کردند. در صورت موفقیت، این اولین باری است که یک پرونده تغییراتی در الگوریتم فیس بوک ایجاد می کند. گروه او همچنین از سال 2019 با ناظران محتوای فیس بوک کار کرده است تا به پایان بهره برداری از آنها کمک کند و یک جلسه توجیهی برای از بین بردن افسانه های آمازون در مورد انبارهای ناامن و مدیریت آن توسط الگوریتم تشکیل دهد .
2023
Hilke Schellmann در تحقیقات گاردین درباره الگوریتمهای هوش مصنوعی مورد استفاده پلتفرمهای رسانههای اجتماعی همکاری کرد و دریافت که بسیاری از این الگوریتمها دارای تعصب جنسیتی هستند و ممکن است دسترسی به عکسهای بدن زنان را سانسور و سرکوب کنند.
نویسندگان Stochastic Parrots به نامه سرگشاده “مکث هوش مصنوعی” پاسخ دادند و بیان کردند که “مضرات به اصطلاح هوش مصنوعی واقعی و موجود است و از اعمال افراد و شرکتهایی که سیستمهای خودکار را به کار میگیرند، ناشی میشود. تلاشهای نظارتی باید بر شفافیت، مسئولیتپذیری و جلوگیری از شیوههای استثماری کار متمرکز شود.»
ترجمه توسط گوگل از سایت :
https://medium.com/women-in-ai-ethics/the-ai-ethics-revolution-a-timeline-276593eef416