دیده بان آزار

هوش مصنوعی به کمک تشخیص آزار جنسی در فضای مجازی می‌آید؟

ظهور بات‌های‌ #MeToo؛ برنامه‌ای برای تشخیص آزار جنسی در ایمیل‌ها

برنامه‌نویسان هوش مصنوعی در حال ایجاد بات‌هایی هستند که قابلیت تشخیص قلدری و آزار جنسی را در فضای مجازی داشته باشد. این فناوری‌ جدید که پس از افشای اتهامات علیه هاروی واینستین، به عنوان #MeTooBots شناخته شدند، قابلیت رصد مکالمات میان همکاران و نشان دادن موارد آزارجنسی را دارند و در حال حاضر توسط شرکت‌های مختلفی در سرتاسر دنیا ارائه شده‌اند.

سازندگان این بات‌ها می‌گویند با وجود ظرافت‌های زبانی و ابهامات در تعیین مرز رفتارهای استاندارد، این که به کامپیوترها آموزش بدهید آزار چه شکلی دارد کار آسانی نیست. «جی لیب»، مدیر اجرایی شرکت هوش مصنوعی «نکس» در شیکاگو در این رابطه می‌گوید: «من از تمامی مصادیق آزار آگاه نبودم و فکر می‌کردم آزار یعنی مکالمه شنیع جنسی. اما به نظر می‌رسد آزار رساندن شکل‌های مختلف دارد. ممکن است در قالب ۱۵ پیام و یا به واسطه یک عکس صورت بگیرد.»

از پلتفرم هوش مصنوعی این شرکت بیش از ۵۰ شرکت استفاده می‌کنند که شرکت‌های حقوقی در لندن را هم شامل می‌شود. حوزه وکالت و نهادهای حقوقی، محلی بسیار مناسب برای آزمایش این بات‌ها هستند؛ یک سوم وکلای زن در بریتانیا تجربه آزار و اذیت جنسی خود را گزارش داده‌اند. این بات‎ها از آلگورتیمی خاص برای تشخیص آزار و اذیت جنسی در پرونده‌ها، ایمیل‌ها و چت‌های شرکت استفاده می‌کند و سپس اگر موردی مشکل‌ساز را تشخیص دهد، آن را برای بررسی به مدیر منابع انسانی یا یک وکیل ارسال می‌کند.

این که دقیقا به چه شکلی بات‌ها آزار را تشخیص می‌دهند و شاخصه‌های تعیین نقاط قرمز چیست، از رازهای شرکت نکس است، اما جی لیب می‌گوید که این فناوری در طی هفته‌ها مکالمات را رصد می‌کند به دنبال ناهنجاری‌های کلامی و فرکانس و زمان‌بندی الگوهای ارتباطاتی می‌گردد و دائما در حال یادگیری نحوه تشخیص آزار است. لیب» باور دارد که به جز بخش‌های حقوقی، دیگر حوزه‌ها هم می‌توانند از این بات‌ها استفاده کنند. او در این زمینه می‌گوید: «در بخش‌های مختلف مثل داروسازی و خدمات مالی مشتریان علاقه زیادی از خود نشان داده‌اند.»

پروفسور «برایان سوبریانا»، مدرس هوش مصنوعی در دانشگاه‌های هاروارد و «ام‌آی‌تی» می‌گوید: «ایده تشخیص آزار از طریق بات‌ها امیدوارکننده است، اگرچه توانایی این بات‌ها محدود است. نوعی از آزار وجود دارد که تشخیص آن بسیار سخت است. ما دوره‌هایی درباره آزار در دانشگاه هاروارد داشتیم و باید بگویم تشخیص آن‌ها نیازمند درکی است که هوش‌مصنوعی هنوز توانایی آن را ندارد.»

 

بیشتر بخوانید:

زمان آن رسیده از «شبکه زمزمه‌های درِگوشی» ابزار مبارزه بسازیم

 زنان کارمند از آزارهای جنسی آنلاین در قرنطینه خانگی می‌گویند

 

اشکالات بات‌ها

مسئله اساسی این است که هوش مصنوعی فقط می‌تواند تجزیه و تحلیلی ابتدایی صورت بدهد و به نوعی دنبال محرک‌های خاص بگردد و نمی‌تواند فراتر از این پارامترها عمل کند. هم‌چنین هوش مصنوعی قابلیت تشخیص ویژگی‌های فردی و ارتباطات و مناسبات خاص بین فردی را ندارد. این یعنی ممکن است بات‌ها در برخی موارد آزار را تشخیص ندهند و برخی موارد هم حساسیت بیش از حد داشته باشند.

سوبریانا می‌گوید: «اینکه چه زمانی هوش مصنوعی از درک و قوه تشخبص محدود فراتر می‌روند، هنوز معلوم نیست.» او اضافه می‌کند در صورتی که مکاتبات کارکنان برچسب قرمز دریافت کند ممکن است در محل کار فضای بی‌اعتمادی ایجاد شود و آزاردهندگان هم بعد از مدتی راه‌های دور زدن نرم‌افزار را یاد می‌گیرند یا حتی از میانجی‌های ارتباطی دیگر استفاده می‌کنند که تحت نظارت بات‌ها قرار ندارند.

نگرانی دیگر اما بحث محرمانه نگه‌داشتن اطلاعاتی است که بات‌ها گردآوری می‌کنند. به گفته سوبریانا با اشتباه نرم‌افزار و لو رفتن اطلاعات شرکت‌های رقیب می‌توانند به مکالمات داخلی کارمندان یک شرکت دسترسی داشته باشند. او می‌گوید: «برای این که هوش مصنوعی ایده‌های ما را محقق کند باید تغییراتی ایجاد شود، من تا به حال از مدیر منابع انسانی هیچ شرکتی نشنیده‌ام که این بات‌ها برای آن‌ها مفید و اثرگذار بوده‌اند.»

 

پیامدهای غیرقابل پیش‌بینی یا منافع غیرمستقیم؟

اما سوبریانا تنها کسی نیست که به کارکرد این بات‌ها شک دارد، «سم اسمیترز»، مدیر اجرایی انجمن فاوست، سازمانی مردم‌نهاد که در زمینه حقوق زنان فعالیت می‌کند، می‌گوید نظارت و کنترل پلیس‌مآبانه‌ بر کارمندان می‌تواند پیامدهایی غیرقابل پیش‌بینی به همراه داشته باشد. او در این راستا توضیح می‌دهد: «ما باید نحوه توسعه این فناوری را به دقت بررسی کنیم، چه کسی پشت این سیستم است؟ آیا این سیستم برآمده از فرهنگ محیط کاری است که جلوگیری از آزار جنسی و ارتقای برابری را دنبال می‌کند یا تنها شیوه جدیدی است برای کنترل بیشتر کارمندان؟»

اسمیترز افزود: «این برنامه برای حریم شخصی کارمندان پیامدهای متعددی به دنبال دارد و ممکن است مورد سوءاستفاده قرار بگیرد. آموزش دادن به کارمندان در زمینه رفتار و رویکردهای مناسب، می‌تواند تاثیرگذاری بسیار بیشتری در حفاظت از قربانیان بالقوه داشته باشد.» اما سوبریانا معتقد است با وجود نگرانی‌ها، بات‌های می‌تو می‌توانند به شکل غیرمستقیم منافعی هم داشته باشند: «استفاده از بات‌ها می‌تواند یک بانک اطلاعاتی از پیام‌های حاوی آزار جنسی ایجاد کند. همچنین باور به این که مکالمات نظارت می‌شوند، می‌تواند اثر ذهنی بازدارنده داشته باشد و تمایل افراد به آزار همکاران خود را کاهش بدهد.» 

اما به جز نکس، شرکت‌های دیگر هم برای جنگ با آزار و اذیت جنسی از فناوری‌های مشابهی استفاده می‌کنند. «مورگام لوئیس» نام یکی دیگر از شرکت‌های حقوقی متمرکز بر حوزه حقوق کار است که در حال استفاده از این فناوری است. این شرکت اما به جای نظارت بر کارمندان، فناوری هوش مصنوعی را در راستای بررسی و تحیل ارتباطات پیشین مشتری‌های خود به کار گرفت. «تس بلیر»، یکی از شرکای مورگان لوئیس می‌گوید: «ما از این فناوری در ده‌ها پرونده استفاده کردیم و توانستیم ادله محکمه‌پسند گردآوری کنیم و در اقامه دعوی موفق شویم.»

 

برنامه‌ای برای گزارش آزار جنسی

یک استارت‌آپ هوش مصنوعی دیگر به نام «اسپات»، برنامه‌ای به اسم «چت‌بات» راه‌اندازی کرده است که به کارمندان امکان می‌دهد آزار جنسی را بدون افشای هویت خود گزارش دهند. این بات آموزش دیده که در چنین مواقعی به قربانی مشاوره بدهد و از او سوالاتی بپرسد تا بررسی‌ها درباره اتهامات واردشده مبنی بر آزار جنسی، عمیق‌تر صورت بگیرد. آزارهایی که می‌توانند فیزیکی یا دیجیتالی صورت گرفته باشند. در واقع این برنامه قصد دارد خلاهای بخش‌های منابع انسانی در در قبال این گونه مشکلات را جبران و هم‌زمان هویت افراد را محرمانه حفظ کند.»

تس بلیر می‌گوید: «این بات‌های هوش مصنوعی می‌توانند در کنار هم کار کنند تا به شکل موثرتری آزار جنسی در محل کار تشخیص داده شود. برنامه‌هایی مثل چت‌بات  پیش از درگیر شدن وکیل یا مدیر منابع انسانی می‌توانند کارکرد داشته باشند.» اما به گفته او هر چقدر هم این بات‌ها توسعه پیدا کنند، از آن‌ها بیشتر می‌توان به عنوان دستیار نیروی انسانی استفاده کرد و نه به عنوان یک قاضی یا هیئت منصفه و ضابط قضایی. او می‌گوید: «کامپیوترها صلاحیت قضاوت و ارزش‌گذاری را ندارند، آن‌ها فقط اعلام می‌کنند که این مورد از الگوی مشخص‌شده تخطی کرده است و پس از آن همه‌چیز وابسته به تفسیر ما خواهد بود.»

 

نویسنده: ایزابل وودفرد

برگردان: نیو صدر

منبع: گاردین