عصر ما عصر کلان داده است. حتما به گوشتون خورده که الگوریتمهای مختلفی با استفاده از کلاندادهها درک ما رو نسبت به بسیاری از چیزها عوض کردند و دریچههای تازهای رو به الگوی مصرف، سیاست و شناخت رفتارهای اجتماعی باز کردند. این الگوریتمها همه جا هستند. اونها بر آنچه که ما در صفحهی اول اینستاگرام یا توییترمون میبینیم اثر میذارن و تبلیغات مرتبط با سلیقهمون رو در یوتیوب به ما نشون میدن. اثر الگوریتمها گاهی از این هم فراتر میره و در انتخاب مدرسهای که در دسترسمونه و شغلی که میتونیم براش اپلای کنیم هم موثرند.
بسیاری میگن خوب اینکه تصمیمگیری در مورد استخدام یا ثبتنام در مدرسه و دانشگاه رو به دست این محاسبات ریاضی بسپاریم خیلی بهتر از اینه که اختیارش رو بدین دست یک نیروی انسانی که هر چقدر هم حرفهای باشه به هر حال خلقیات فردیش ممکنه روی سرنوشت افراد اثر بذاره. به هر حال هر چی نباشه، الگوریتمها ما رو با متر و معیار مشخص و تکرار پذیری با هم مقایسه میکنن، نه؟
نویسندهی کتابی که منبع این اپیزود پادکست مختصر و مفیده معتقده که ماجرا پیچیدهتر از این حرفهاست که به همین راحتی بتونیم به این سوال جواب بدیم.
من اردشیر طیبی هستم و این اپیزود سیزدهم پادکست مختصر و مفیده
—
منبع این اپیزود پادکست مختصر و مفید کتابیه به نام Weapons of Math Destruction ترجمهی عنوانش قدری سخته چون یک بازی لغوی با عبارت Weapons of Mass Destruction به معنای سلاحهای کشتار جمعی داره، فقط به جای Mass یعنی m a ss کلمهی Math به معنای ریاضیات گذاشته شده. عنوان فارسیش مثلا میتونه «ریاضیات به مثابه اسلحه» باشه. هرچند که زیاد مهم نیست و در کار ما تاثیری نداره.
کتاب در سال ۲۰۱۶ منتشر شده و بسیار موفق بوده. نامزد بهترین کتاب غیر داستانی سال ۲۰۱۶ بوده و همچنین برندهی جایزهی کتاب اویلر هم شده. جایزهی کتاب اویلر جایزهایه که به بهترین کتابهایی که بتونن درک عمومی رو راجع به ریاضیات ارتقاء بدن اهدا میشه.
نویسندهش هم خانم کتی اونیل هستند. ایشون ریاضیدانی اهل آمریکاست و کلا آدم جالبیه، لیسانس رو برکلی گرفته، دکترای ریاضیش رو از هاروارد گرفته، مدتی محقق در دانشگاه MIT بوده و بعد سه چهار سال رفته والاستریت و در حوزهی مالی کار کرده بعد شغلش در والاستریت رو رها کرده و در جنبش اشغال والاستریت از فعالان این کمپین بوده و در کمیتهی بانکداری آلترناتیو این جنبش فعالیت میکرده.
خانم اونیل در بخشهای نخستین کتابش میگه که اینترنت در بسیاری از جنبهها به تقویت دموکراسی کمک کرده. اینترنت پلتفرم عمومیای است که صداهای مستقل با استفاده از اون به گوش ما میرسند. اما همونجور که صداهای مستقل میتونن از این ابزار برای نشر خودشون استفاده کنن، ماشینهای قدرتمند پروپاگاندا هم میتونن گفتگوهایی که در این فضا میشه رو دستکاری کنن.
تحقیقات نشون میدن که موتورهای جستجو و شبکههای اجتماعی در مقابل الگوریتمهایی که میتونن تصمیمات ما رو دستکاری کنن، بسیار آسیبپذیر هستند.
چند سال پیش دو محقق به نامهای رابرت اپشتاین و رونالد روبرتسون شواهد این ادعا رو در تحقیقی دنبال کردند. اینها رفتند دم انتخابات رایدهندگانی که هنوز برای اینکه به چه کسی رای بدن مردد هستند رو در دو کشور هند و ایالات متحده زیر نظر گرفتند.
روش تحقیق اینجوری بود که از اونها خواستند از یک موتور جستجوی خاص استفاده کنند. بدون اینکه بهشون بگن این موتور جستجو به طریقی دستکاری شده که یک کاندیدا رو نسبت به بقیه کاندیداها برتر نشون بده. در پایان این مطالعه، نظر شرکتکنندگان در این تحقیق نسبت به کاندیدای مورد نظر ۲۰ درصد مثبتتر شده بود.
مطالعهی مشابهی در سال ۲۰۱۲ و در فیسبوک هم انجام گرفته. یک مرکز تحقیقاتی الگوریتم خاصی طراحی کرد اخبار سیاسی رو در فید خبری حدود ۲ میلیون کاربر در اولویت نسبت به سایر پستهایی که اون کاربرها میدیدن قرار میداد.
فیسبوک قبل و بعد از این مطالعه بین شرکتکنندگان نظرسنجیای برگزار کرد و نتایج نشون میداد که افرادی که تصمیم به شرکت در انتخابات دارند قبل و بعد از این مطالعه ۳ درصد بیشتر شدند.
خانم اونیل به اینجا که میرسه یک ایدهی ترسناک رو مطرح میکنه. میگه ما نمیدونیم موتورهای جستجو همین الانش هم آیا تحت تاثیر الگوریتمهایی که برای تاثیر بر افکار عمومی طراحی شدند هستند یا نه. ولی دست کم تا اینجا میدونیم که این پتانسیل برای سوءاستفاده از موتورهای جستجو در دست مالکینشون وجود داره. نه فقط ما، بلکه سیاستمداران و کاندیداهای انتخابات بهتر از ما میدونن که با استفاده از این الگوریتمها چطور میشه آرای عمومی رو درو کرد.
سال ۲۰۱۲ تیمی از تحلیلگران داده در کمپین انتخاباتی باراک اوباما، در پی مصاحبه با هزاران نفر از رایدهندگان از جوابهای اونها استفاده کردند و علاوه بر تحلیلهای دموگرافیک معمول موفق شدند که اونها رو بر مبنای ریاضیات پروفایل بکنن. بعد این پروفایل رو با پایگاهدادههای ملی منطبق کردند و باهاش افراد مشابه رو پیدا کردند. به این امید که افرادی با سوابق و علاقمندیهای مشابه، آرای سیاسی مشابهی هم داشته باشند. حاصل دیتابیس تازهای از افرادی همگن بود و بعد شروع به طراحی الگوریتمی کردند که تبلیغ کمپین آقای اوباما متناسب با سلیقهی گروه هدف به اونها نمایش داده بشه. مثلا اون دسته از افرادی که نگرانیهای زیستمحیطی داشتند، تبلیغاتی از باراک اوباما میدیدند که در اون سیاستهای زیستمحیطی اوباما برجسته شده بود.
—
یکی دیگه از چیزهایی که با کمک الگوریتمها میشه از دل کلاندادهها کشید بیرون امکان پیشبینی وقوع جرم و جنایاته. یه ذره شبیه به قصههای علمی-تخیلیه ولی واقعیت داره. یادمه سالها پیش یک سریالی از تلویزیون ایران پخش میشد به نام «در برابر آینده»، ماجراش این بود که هر روز صبح روزنامهی فردای اون روز میرفت دم در خونهی یک بابایی و اون هم سریع میرفت سراغ صفحهی حوادث که ببینه چه حوادثی در اون روز قراره اتفاق بیفته و بعد تلاش میکرد که جلوش رو بگیره. یادمه خیلی حال میکردم با ایدهی این سریال. حالا اما این قصهی تخیلی تا حدودی به کمک کلاندادهها ممکن شده و در برخی از دپارتمانهای پلیس از الگوریتمهایی برای تحت نظر گرفتن مجرمین بالقوه استفاده میشه.
اما واقعیت اینه که هنوز خیلی راه مونده تا به امکانی به دقت سریال «در برابر آینده» برسیم. این الگوریتمها فعلا چند تا مشکل بزرگ دارن، یکیش اخلاقیه و منتقدین میگن باعث میشه یک سلطهی پلیسی نابرابر بر شهروندان اعمال بشه و کلا هم بایاس توش زیاده.
حالا مشکل چطور به وجود میاد؟ اینجوری که پلیس روی نوع خاصی از جرایم مثل آزار و اذیتها تمرکز داره. دادههای تاریخی نشون میدن که این جور جرایم بیشتر در محلههای فقیرنشین رخ میده و همین باعث میشه تحلیلهای مبتنی بر این الگوریتمها هم به طور کامل به سمت این محلهها کشیده بشه. این منجر به حضور غیرعادی پلیس در این محلهها میشه و باعث میشه اهالی محل حس کنند که به طرز نابرابر و غیرعادیای تحت نظر هستند. از طرف دیگه چون همهی حواس پلیس به این محلهها هست، منجر به آسیبپذیرتر شدن محلههای ثروتمندتر میشه.
حالا وقتی این الگوریتمها روی افراد تمرکز میکنند هم همین بایاس در اون وجود داره و باعث میشه افراد بیگناهی برچسب مجرم بالقوه بودن یا خطرناک بودن بخورن.
سال ۲۰۰۹ ادارهی پلیس شیکاگو یک بودجهی تپل گیرش اومد که باهاش نرمافزار جدیدی برای پیشبینی جرایم بسازه. پول رو خرج کردن و نرمافزار ساخته شد و آخر گفت بفرمایید این هم لیست چهارصد نفر از کسانی که بیشتر از بقیه احتمال داره مرتکب جنایت بشن.
پلیس شروع به تحت نظر گرفتن این ۴۰۰ نفر کرد و از جمله یک جوان ۲۲ سالهای به نام رابرت مکدنیل. یک روز از روزهای سال ۲۰۱۳ حتی پلیس رفت دم در منزل آقای مکدنیل و بهش گفتند که داداش حواست به خودت باشه چون ما حواسمون بهت هست.
این رابرت مکدنیل از همه جا بیخبر هم گذاشت پشتش ببینه جریان چیه؟ چون اون هیچ سوءسابقهای نداشت و تعجب کرده بود که اسمش تو اداره پلیس برچسب قرمز خورده. خلاصه کنم که آخر معلوم شد الگوریتم ایشون رو صرفا بر اساس افرادی که در شبکههای اجتماعی دنبال میکرده و همسایههای خلافکاری که داشته گذاشته تو دستهی مجرمین بالقوه. به همین مسخرگی.
یعنی از نظر این الگوریتمها، به دنیا اومدن در یک محلهی فقیرنشین تمام چیزیه که برای برچسب خطرناک خوردن نیاز دارید.
این الگوریتمها که ابتدا به ساکن با هدف بالابردن امنیت و کیفیت زندگی مردم خلق شدند، میتونن به سادگی زندگی بسیاری رو بدتر از چیزی که هست بکنند. در ادامه خواهید شنید که همین مشکل در صنعت بیمه هم به نوعی تکرار شده.
—
اگر با مکانیزم صنعت بیمه در کشورهای غربی آشنا باشید میدونید که قدری با روند علیالسویهای که ما در ایران داریم فرق میکنه و افراد مختلف ممکنه هزینههای متفاوتی برای خدماتی یکسان پرداخت کنند و این که هر کسی چقدر پرداخت بکنه رو دادههایی که این شرکتها دربارهی مشتریان جمع میکنند مشخص میکنه.
مثلا در بیمه اتوموبیل، علاوه بر سوابق تصادفات فرد متقاضی خدمات، گزارشهای اعتباری او هم بر روی پولی که باید بابت بیمهی ماشینش پرداخت کنه تاثیر داره.
ولی واقعیت اینه که در بعضی جاها، گزارش اعتباری افراد وزن بیشتری نسبت به سوابق تصادفاتش داره. مثلا در جایی مثل فلوریدا، یک رانندهی بالغ بدون سابقهی تصادف و تخلف رانندگی که اعتبار بانکی پایینی داره از یک رانندهی دیگه با سوابق اعتباری بالا که تخلف رانندگی در حال مستی در کارنامهش هست پول بیشتری پرداخت میکنه.
جملهی خیلی بلندی شد. اگر فعل و فاعلش رو اون وسط گم کردید خلاصهش میشه این: یک رانندهی قانونمند اما فقیر به طور میانگین باید مبلغ بیشتر از یک رانندهی خلافکار اما پولدار بابت بیمه پول بده.
بعد این آغاز یک دور باطله. رانندهی فقیرتر مجبوره پول بیشتری برای بیمه بده، بعد خوب چون فقیره و ممکنه جور کردن سر موعد این پول براش سخت باشه گاهی اوقات نمیتونه سر وقت پول بیمهش رو پرداخت کنه و چون دیر کرده باز باید پول بیشتری به خاطر دیرکردش پرداخت کنه و همینجور قیمت میره بالا. همهی اینها رو بذارید کنار این نکته که اصلا ممکنه طرف هیچ تخلف رانندگیای نکرده باشه و کلا این افزایش قیمت ارتباطی به اون چیزی که باید داشته باشه نداره.
الگوریتمها یه بلای دیگه هم سر خریدار بیمه میارن. مثلا شرکت بیمه Allstate از این الگوریتمها استفاده میکنه تا کشش قیمتی خریدار رو محاسبه کنن و اگر حدس بزنن که طرف تمایل به خرید در قیمت پایینتر داره، قیمتی که به اون پیشنهاد میدن گاهی تا ۹۰ درصد تخفیف داره. اما از اون طرف اگر حدس بزنن که طرف خیلی هم دنبال قیمت پایینتر نیست، قیمتی که بهش پیشنهاد میدن بعضی اوقات تا ۸۰۰ درصد بالاتر از نرخ رایجه.
شاید در نگاه اول به نظر بیاد این الگوریتم برخلاف اون قبلی کفهی ترازو رو به نفع فقرا سنگین میکنه، اما در عمل ثابت شده که اتفاقا باز فقرا هستند که ضرر میکنن و قیمت بالاتر بهشون داده میشه. چطور؟ اینطوری که آدمهای باسوادتر که وقت بیشتری برای تحقیق و بررسی خرید بیمهشون میکنن اون تخفیف تپلها گیرشون میاد و آدمهای کمسوادتر از نظر الگوریتم اینطور شناسایی میشن که میشه با قیمت بالاتری بهشون بیمه فروخت.
—
یه جای دیگهای که به نظر میرسه الگوریتمهای ریاضی و دادهکاوی خیلی به کار میاد استخدامه. اگر تجربهی جمع کردن و بررسی رزومه برای استخدام رو داشته باشید حتما میدونید که پیدا کردن فرد متناسب از بین دهها و بلکه صدها رزومه کار بسیار دشواریه. بنابراین شرکتها میان و تستهایی از متقاضیان میگیرن و اونها رو با اطلاعات شرکتهای دادهپرداز ترکیب میکنن تا بتونن کاندیدای مورد نظرشون رو پیدا کنن.
اما این تستها لزوما برای همهی گروههای متقاضیان جواب نمیدن و بعضی جاها نتایج عجیبی دارند. از جمله مثالهایی که کتاب میزنه، اتفاقیه که برای آقایی در سال ۲۰۱۲ افتاده. ایشون در دوران تحصیلش یک مدتی به خاطر اختلال دوقطبی مجبور میشه ترک تحصیل کنه و بعد تحت درمان قرار میگیره و مدتی بعد که حالش بهتر میشه تلاش میکنه جایی به طور پارهوقت استخدام بشه.
یک دوستی هم میاد و بهش میکه شرکت Korger که یک سوپرمارکت زنجیرهای است موقعیت کاری مناسبی براش داره و این آقا هم میره و برای اون کار تقاضا میده. اما وقتی که تقاضاش رد میشه میره سراغ همون دوستش و میگه چی شد؟ چرا من رو رد کردن؟ دوستش هم بهش میگه ظاهرا اینها بر اساس نتایج تست شخصیتی که ازش گرفتند او رو اصطلاحا Red-lighted کردند. الگوریتمها تشخصی دادند که ایشون احتمالا underperform یعنی عملکردش از اونچه ازش انتظار میره کمتر خواهد بود.
بعد ایشون شروع میکنه و برای چند تا موقعیت شغلی دیگه که همگی کف حقوق رو داشتند تقاضا میفرسته و همگی به همین دلیل ردش میکنند. بعد از این بود که این فرد با کمک پدرش و بر مبنای قانون حمایت از معلولین از هفت شرکت بزرگ شکایت میکنه. این پرونده تا سال ۲۰۱۶ که نویسنده این کتاب رو مینوشته به حالت تعلیق بوده و بهش رسیدگی نشده بوده.
بخشی از مشکل اینجاست که شرکتهایی که دادهکاوی میکنن ممکنه دچار اشتباهات مهلکی بشن. مورد مشابه برای خانمی به نام کاترین تیلور رخ داد که میخواست در آرکانزاس به صلیب سرخ بپیونده اما درخواستش به علت عجیبی رد شد: سابقهی جرم و جنایت و مشارکت در ساخت و توزیع متامفتامین! موضوعی که باعث تعجب خانم تیلور شد چون ایشون به نظر خودش پروندهی پاکی داشت و هیچ وقت دست از پا خطا نکرده بود چه برسه به اینکه تو کار توزیع و تولید شیشه باشه.
وقتی پی ماجرا رو گرفت فهمید که این سوابق مربوط به یک کاترین تیلور دیگهست و صرفا به خاطر تشابه اسمی به نام ایشون ثبت شده. بعد که بیشتر پیگیری کرد فهمید این اشتباه رو صرفا یک شرکت دادهکاوی نکرده و حداقل ۱۰ شرکت دیگه هم اسم ایشون رو با سوابق مرتبط با جرم و جنایت و تولید و توزیع شیشه ثبت کردند. جرایمی که او هیچ وقت مرتکب نشده بود.
—
نویسنده در بخش آخر سراغ تاثیر این الگوریتمها بر هزینههای تحصیل در آمریکا میره. ایشون میگه بر کسی پوشیده نیست که در ۳۰ سال اخیر شهریهی دانشگاههای آمریکایی به طرز عجیبی رشد کرده اما کمتر کسی میدونه که دلیل اصلی این افزایش قیمت تقصیر یک روزنامهست.
در دههی ۸۰ روزنامهای به نام US News and World Report با کمک الگوریتمی شروع به رتبهبندی کیفی کالجهای آمریکایی کرد. مبنای این رتبهبندی هم دادههایی بود که به نظر تهیهکنندگانش مرتبط به نظر میرسید. چیزهایی مثل نمرهی SAT و نرخ پذیرش. خیلی سریع این رتبهبندی برای دانشگاههای آمریکایی مهم شد و اونها شروع کردند به تقویت عملکردشون در حوزههایی که برای این رتبهبندی مهم بودند. اما برای چنین کاری اونها نیاز به منابع مالی داشتند.
این عطش منابع مالی منجر به افزایش ۵۰۰ درصدی شهریههای دانشگاه در فاصلهی ۱۹۸۵ تا ۲۰۱۳ شد.
یکی از مخربترین ملاکهایی که US News برای رتبهبندیش در نظر گرفت هم همین در نظر گرفتن نرخ پذیرش به عنوان فاکتوری تاثیرگذار در رتبهبندی بود. تا قبل از این ماجرا، وقتی موقع انتخاب دانشگاه میشد، بچهها دانشگاههای قویتری مثل Yale یا هاروارد رو در گزینهی اولشون میگذاشتند و بعد از اون دانشگاههایی رو انتخاب میکردند که نرخ پذیرش بالاتری داشتند و ورود به اونها آسونتر بود. اما از اونجایی که US News کمتر بودن نرخ پذیرش رو به عنوان نمادی از کیفیت دانشگاهها مطرح کرده بود، دیگه حتی دانشگاههای ضعیفتر هم سعی میکردند نرخ پذیرششون رو پایین بیارن. این دانشگاههای درجه دو که تا اون موقع Plan B بسیاری از متقاضیان تحصیل در دانشگاه بودند، حالا حساب کتاب میکردند و پیش خودشون میگفتند ما که باید یه عده رو به هر حال رد کنیم تا نرخ پذیرشمون رو در حد مطلوب نگه داریم. حالا کی رو رد کنیم؟ دیدن که درصد کمی از دانشجوهای نخبه اونها رو در انتخاب اولشون قرار میدن و اونها احتمالا توسط دانشگاههای بهتر جذب میشن، پس تصمیم گرفتن این گروه از دانشجوهایی که نمرههای بهتری داشتند رو رد کنند؛ به جای اینکه اونها رو بپذیرند اما درصد بزرگیشون نیان و برن دانشگاههای بالاتر ثبت نام کنند. اما واقعیت مشخصه دیگه. اگر این رتبهبندی مسخره نبود، دانشگاه قطعا ترجیح میداد که اون Top Studentها رو جذب خودش بکنه تا کیفیت آموزشیش رو بالاتر ببره و به هر حال همهی اونها هم که توسط دانشگاههای بهتر جذب نمیشدند یا لزوما هم همهی اونها شاید انتخاب اولشون هاروارد نمیبود و یک درصدیشون بالاخره میومدن تو این دانشگاهها و کیفیت آموزشی رو ارتقا میدادن. اما دانشگاهها ترجیح دادند این ریسک رو نکنن و اونها رو رد کنند.
این هم مثل بقیهی الگوریتمهایی که کتاب بررسی کرده، اول با یک نیت خیر شروع شده اما در نهایت بیشتر از اینکه به درد بخوره، خسارتبار بوده.
—
کتاب البته قدری رادیکال به الگوریتمها نگاه میکنه، اما نقطهنظرش مهمه. نویسنده میگه این الگوریتمها اغلب همون بایاسهای ذهنی طراحانشون رو با خودشون دارن و چون در مقیاس بزرگ استفاده میشن منجر به میلیونها تصمیم اشتباه میشن و اینکه شاید دهها برابر این تصمیمات اشتباه، میتونن مفید باشند هم خیلی دردی از اونهایی که زندگیشون متاثیر از این تصمیمات اشتباه شده دوا نمیکنه. امیدوارم در اپیزودهای آتی پادکست مختصر و مفید دوباره این فرصت پیش بیاد و به سراغ کلاندادهها برم. تا اون موقع، شما اگر نظری دارید یا کتاب خوبی در این زمینه میشناسید میتونید اون رو در شبکههای اجتماعی با هشتگ #مختصرومفید با من در میون بگذارید و یا از طریق راههای تماسی که در وبسایت ardeshirtayebi.com هست برای من ارسالش کنید. در همین وبسایت هم میتونید متن این اپیزود رو به همراه لینکهایی که در داخل متن برای توضیحات بیشتر گذاشتن پیدا کنید.
مثل همیشه خواهش من از شما اینه که اگر این اپیزود رو دوست داشتید و حرف تازهای براتون داشته یا منجر شده به موضوعی که از قبل باهاش آشنا بودید جور دیگهای فکر کنید، لطفا اون رو دست کم به یک دوستتون که فکر میکنید این موضوع ممکنه برای او هم جالب باشه معرفی کنید.
این اپیزود با دو هفته تاخیر منتشر میشه چون در زمان مقرر خودش یعنی ۲۶ آبان ۹۸ و در پی تظاهرات سراسری در ایران، ارتباطات اینترنتی خاموش شد و کشوری به عظمت و پرجمعیتی ایران به قعر تاریخ فرو رفت و ارتباطش با دنیا قطع شد. در پی این تظاهرات و در سایهی قطع بودن اینترنت صدها نفر جان خودشون رو از دست دادند و حتی در روز انتشار این پادکست هم همچنان در بخشهایی از ایران مثل استان سیستان و بلوچستان اینترنت قطع است. این اپیزود رو تقدیم میکنم به مردم سیستان و بلوچستان به این امید که روزهای بهتری در انتظار همهمون باشه.
من اردشیر طیبی هستم و آنچه که میشنیدید اپیزود سیزدهم پادکست مختصر و مفید بود.