رویداد۲۴ این روزها برنامههای عکس و فیلم گوشیهای هوشمند کارکردی خارق العاده دارند. برای مثال کافیست گوشی خود را در دست بگیرید و تصویر یک سگ را جستجو کنید. هوش مصنوعی گوشی شما به خوبی میداند سگ چه شمایلی دارد و به سرعت همه تصاویر مرتبط را بارگذاری میکند.
این شگفتی مدرن نتیجه نوعی هوش مصنوعی است. اما هوش مصنوعی یک وجه تاریک هم دارد، به خصوص اگر به درستی مورد استفاده قرار نگیرد. استفاده نادرست از هوش مصنوعی میتواند زمینه ساز تعصبات و تبعیض نژادی شود. این به این علت نیست که کامپیوترها نژادپرست هستند. این به این دلیل است که آنها با نگاه کردن به جهان ما انسانها رفتارهای غلط را میآموزند.
اخیرا، اوکازیو کورتز این موضوع را در یک بحث در رویداد روز مارتین لوتر کینگ در نیویورک مطرح کرد. او گفت: "الگوریتمها هنوز هم توسط انسان ساخته میشوند و این الگوریتمها هنوز هم به مفاهیم اساسی انسانی وابسته هستند. آنها فقط مفروضات خودکار هستند و اگر شما تعصب را کنار نگذارید، پس شما فقط این تعصب را تبدیل به سیستمی خودکار میکنید. "
به نظر میرسد کورتز درست میگویدف حتی اگر جمهوری خواهان به سخنان وی دهن کجی کنند. درواقع اگر دقت نکنیم، هوش مصنوعی مسیر تعصب ما انسان هنا را در جهان ادامه خواهد داد.
تقریبا تمام تکنولوژیهای مصرفی جدید به نحوی از یادگیری رفتارهای انسانها استفاده میکنند. نگاهی به ترجمههای گوگل نشان میدهد این موضوع تا چه حد مهم است. درواقع هیچ کس به این نرم افزار دستور نداده تا یاد بگیرد که چگونه یونانی را به فرانسه و سپس به زبان انگلیسی ترجمه کند. این هوش مصنوعی این کار را از طریق بررسی تعداد بی شماری از متنها و به شکل خودکار آموخته است.
یادگیری ماشینی برنامهای است که از طریق میلیاردها نقطه داده برای حل مشکلات استفاده میشود مانند «آیا میتوانید حیوان را در عکس شناسایی کنید»، اما همیشه مشخص نیست که این مشکل چگونه حل شده است و این به طور فزایندهای روشن میکند که این برنامهها میتوانند بدون توجه مستقیم به ما، تعصبات و کلیشه هایمان را توسعه دهند.
در سال ۲۰۱۶ پروپاپلیکا یک تحقیق در مورد یک برنامه یادگیری ماشینی انجام داد که دادگاهها برای پیش بینی برخی جرائم مورد استفاده قرار میدادند. پژوهشگران دریافتند که این نرم افزار افراد سیاه پوست را در معرض خطر ارتکاب جرم بیشتری نسبت به سفید پوستان قرار داده است.
این در حالی است که برنامه مذکور بخش بزرگی از دادههای خود را به واسطه تعاملات انسانی و مکاشفه احتمالاتی سازماندهی کرده بود که انسانها اعلام کرده بودند و این یعنی از لحاظ تاریخی، سیستم عدالت کیفری به سیاهپوستان آمریکایی ظلم میکند و اساس آن ناعادلانه است.
این داستان نشان میدهد یک افسانه عمیق در مورد یادگیری ماشینی صحت دارد. افسانهای که معتقد است این سیستمها نمیتوانند تصمیمات بی طرفانهای اتخاذ کنند. اما چه اتفاقی افتاد که برنامههای یادگیری ماشینی و هوش مصنوعی، تعصبات ما را در مقیاس وسیع حفظ کرد؟
موارد دیگر مبهمتر هستند. در چین، محققان تکنولوژی با استفاده از هوش مصنوعی و سیستم تشخیص چهره پیش بینی میکنند که یک نفر جنایتکار است. به نظر میرسد دقت این سیستم ۸۹.۵ درصد باشد. اما بسیاری از کارشناسان از یافتههای اینچنینی نگران هستند. سوال این است که کدام ویژگیهای چهره توسط این برنامه تجزیه و تحلیل شده بود؟ آیا ویژگیهای فیزیکی گروههای قومی خاصی بود که در نظام عدالت تبعیض آمیز اثر داشت؟
الکساندر تولوروف، روانشناس و استاد دانشگاه پرینستون در مصاحبهای در سال ۲۰۱۷ گفت که در حال بررسی راهی برای تشخیص گرایشات جنسی از طریق بررسی وضعیت چهره افراد است. این موضوع از یک سو حساس و از سوی دیگر مخاطره آمیز است. بارها دیده شده که هوش مصنوعی اشتباهاتی فاحش دارد. نگاهی به ترجمههای گاه پرت و پلا و بی ربط مترجم گوگل نشان میدهد هوش مصنوعی گاهی حتی حرف آدمها را متوجه نمیشود چه برسد به وضعیت جنسی، مذهبی، فرهنگی و ...
در سال ۲۰۱۷، کالیزکان و همکارانش مقالهای را در زمینه هوش مصنوعی منتشر کردند که سعی کردند در آن به هوش مصنوعی بیاموزند که کلمات مرتبط مثل "ظرف" و "غذا" را خودکار ترکیب کند. انها ۸۴۰ میلیارد کلمه را وارد سیستم یادگیری هوش مصنوعی کردند و نتایجی جالب هم گرفتند. در این پژوهش مشخص شد واژه "مهندس" اغلب با "آقا" همراه میشود نه "خانم". واژه "سفید پوست" نیز بیشتر با واژه "دلپذیر" همراه میشد تا "سیاهپوست".
مانند یک کودک، هوش مصنوعی ابتدا کلمات را یاد میگیرد سپس با مرور صحبتهای بزرگ ترها تصمیم میگیرد کدام کلمه را کجا قرار دهد. بر همین اساس است که اغلب نامهای افریقایی با صفتهای ناخوشاید و توهین آمیز ترکیب شده اند.
بر همین اساس است که برخی کارشناسان حوزه فناوری معتقدند افرادی که در حوزه یادگیری ماشینی و نرم افزار استخدام میشوند باید مرتب در مورد کلیشههای جنسی و نژادی مطالعه کنند تا در دام این نوع مسائل نیفتند. این موضوع در آینده چالشی مهم خواهد بود. در حال حاضر، هوش مصنوعی راه خود را در سیستم مراقبتهای بهداشتی پیدا کرده است و به پزشکان کمک میکند تا درمان مناسب را برای بیماران پیدا کنند.
با این حال، اطلاعات سلامتی نیز با تعصبهای تاریخی پر شده است. برای مثال زنان بیشتر از مردان از جراحی میترسند و در نتیجه هوش مصنوعی هم جراحی زنان را به تاخیر میاندازد. اما آیا چنین کلیشههایی به لحاظ سلامتی خطرناک نیستند؟
با همه اینها نمیتوان گفت: این نوع برنامهها کاملا بی فایده هستند. برنامههای یادگیری ماشینی در حال روبرو شدن با الگوهای تاریخی هستند که منعکس کننده نژاد یا جنسیت هستند و بنابراین تشخیص واقعیت و تعصب برایشان کمی دشوار است.
چه فردی به برنامههای یادگیری ماشینی یاد داده پرستاران زن هستند و مهندسان مرد؟ طبیعتا ما این کار را کرده ایم و اگر قرار است چیزی عوض شود ابتدا باید از خودمان شروع کنیم. انسانها هنگام استفاده از این برنامهها باید دائما بپرسند «چرا این نتایج را میگیرم؟» و خروجی این برنامهها را برای تعصب بررسی کنند. آنها باید فکر کنند که آیا اطلاعاتی که آنها در حال دریافتش هستند متعصبانه است یا حقیقی. این یک برنامه تحقیقی و درازمدت برای دانشمندان حوزه کامپیوتر، اخلاق، جامعه شناسان و روانشناسان است.
اما حداقل افرادی که از این برنامهها استفاده میکنند باید از این مشکلات آگاه باشند و تصدیق نکنند که یک کامپیوتر میتواند نتایج منفی بیشتری نسبت به یک انسان ایجاد کند. به طور کلی، مهم است که به یاد داشته باشید: هوش مصنوعی از جهان پیرامون ما یاد میگیرد.