برنامهنویسان هوش مصنوعی در حال ایجاد باتهایی هستند که قابلیت تشخیص قلدری و آزار جنسی را در فضای مجازی داشته باشد. این فناوری جدید که پس از افشای اتهامات علیه هاروی واینستین، به عنوان #MeTooBots شناخته شدند، قابلیت رصد مکالمات میان همکاران و نشان دادن موارد آزارجنسی را دارند و در حال حاضر توسط شرکتهای مختلفی در سرتاسر دنیا ارائه شدهاند.
سازندگان این باتها میگویند با وجود ظرافتهای زبانی و ابهامات در تعیین مرز رفتارهای استاندارد، این که به کامپیوترها آموزش بدهید آزار چه شکلی دارد کار آسانی نیست. «جی لیب»، مدیر اجرایی شرکت هوش مصنوعی «نکس» در شیکاگو در این رابطه میگوید: «من از تمامی مصادیق آزار آگاه نبودم و فکر میکردم آزار یعنی مکالمه شنیع جنسی. اما به نظر میرسد آزار رساندن شکلهای مختلف دارد. ممکن است در قالب ۱۵ پیام و یا به واسطه یک عکس صورت بگیرد.»
از پلتفرم هوش مصنوعی این شرکت بیش از ۵۰ شرکت استفاده میکنند که شرکتهای حقوقی در لندن را هم شامل میشود. حوزه وکالت و نهادهای حقوقی، محلی بسیار مناسب برای آزمایش این باتها هستند؛ یک سوم وکلای زن در بریتانیا تجربه آزار و اذیت جنسی خود را گزارش دادهاند. این باتها از آلگورتیمی خاص برای تشخیص آزار و اذیت جنسی در پروندهها، ایمیلها و چتهای شرکت استفاده میکند و سپس اگر موردی مشکلساز را تشخیص دهد، آن را برای بررسی به مدیر منابع انسانی یا یک وکیل ارسال میکند.
این که دقیقا به چه شکلی باتها آزار را تشخیص میدهند و شاخصههای تعیین نقاط قرمز چیست، از رازهای شرکت نکس است، اما جی لیب میگوید که این فناوری در طی هفتهها مکالمات را رصد میکند به دنبال ناهنجاریهای کلامی و فرکانس و زمانبندی الگوهای ارتباطاتی میگردد و دائما در حال یادگیری نحوه تشخیص آزار است. لیب» باور دارد که به جز بخشهای حقوقی، دیگر حوزهها هم میتوانند از این باتها استفاده کنند. او در این زمینه میگوید: «در بخشهای مختلف مثل داروسازی و خدمات مالی مشتریان علاقه زیادی از خود نشان دادهاند.»
پروفسور «برایان سوبریانا»، مدرس هوش مصنوعی در دانشگاههای هاروارد و «امآیتی» میگوید: «ایده تشخیص آزار از طریق باتها امیدوارکننده است، اگرچه توانایی این باتها محدود است. نوعی از آزار وجود دارد که تشخیص آن بسیار سخت است. ما دورههایی درباره آزار در دانشگاه هاروارد داشتیم و باید بگویم تشخیص آنها نیازمند درکی است که هوشمصنوعی هنوز توانایی آن را ندارد.»
بیشتر بخوانید:
زمان آن رسیده از «شبکه زمزمههای درِگوشی» ابزار مبارزه بسازیم
زنان کارمند از آزارهای جنسی آنلاین در قرنطینه خانگی میگویند
اشکالات باتها
مسئله اساسی این است که هوش مصنوعی فقط میتواند تجزیه و تحلیلی ابتدایی صورت بدهد و به نوعی دنبال محرکهای خاص بگردد و نمیتواند فراتر از این پارامترها عمل کند. همچنین هوش مصنوعی قابلیت تشخیص ویژگیهای فردی و ارتباطات و مناسبات خاص بین فردی را ندارد. این یعنی ممکن است باتها در برخی موارد آزار را تشخیص ندهند و برخی موارد هم حساسیت بیش از حد داشته باشند.
سوبریانا میگوید: «اینکه چه زمانی هوش مصنوعی از درک و قوه تشخبص محدود فراتر میروند، هنوز معلوم نیست.» او اضافه میکند در صورتی که مکاتبات کارکنان برچسب قرمز دریافت کند ممکن است در محل کار فضای بیاعتمادی ایجاد شود و آزاردهندگان هم بعد از مدتی راههای دور زدن نرمافزار را یاد میگیرند یا حتی از میانجیهای ارتباطی دیگر استفاده میکنند که تحت نظارت باتها قرار ندارند.
نگرانی دیگر اما بحث محرمانه نگهداشتن اطلاعاتی است که باتها گردآوری میکنند. به گفته سوبریانا با اشتباه نرمافزار و لو رفتن اطلاعات شرکتهای رقیب میتوانند به مکالمات داخلی کارمندان یک شرکت دسترسی داشته باشند. او میگوید: «برای این که هوش مصنوعی ایدههای ما را محقق کند باید تغییراتی ایجاد شود، من تا به حال از مدیر منابع انسانی هیچ شرکتی نشنیدهام که این باتها برای آنها مفید و اثرگذار بودهاند.»
پیامدهای غیرقابل پیشبینی یا منافع غیرمستقیم؟
اما سوبریانا تنها کسی نیست که به کارکرد این باتها شک دارد، «سم اسمیترز»، مدیر اجرایی انجمن فاوست، سازمانی مردمنهاد که در زمینه حقوق زنان فعالیت میکند، میگوید نظارت و کنترل پلیسمآبانه بر کارمندان میتواند پیامدهایی غیرقابل پیشبینی به همراه داشته باشد. او در این راستا توضیح میدهد: «ما باید نحوه توسعه این فناوری را به دقت بررسی کنیم، چه کسی پشت این سیستم است؟ آیا این سیستم برآمده از فرهنگ محیط کاری است که جلوگیری از آزار جنسی و ارتقای برابری را دنبال میکند یا تنها شیوه جدیدی است برای کنترل بیشتر کارمندان؟»
اسمیترز افزود: «این برنامه برای حریم شخصی کارمندان پیامدهای متعددی به دنبال دارد و ممکن است مورد سوءاستفاده قرار بگیرد. آموزش دادن به کارمندان در زمینه رفتار و رویکردهای مناسب، میتواند تاثیرگذاری بسیار بیشتری در حفاظت از قربانیان بالقوه داشته باشد.» اما سوبریانا معتقد است با وجود نگرانیها، باتهای میتو میتوانند به شکل غیرمستقیم منافعی هم داشته باشند: «استفاده از باتها میتواند یک بانک اطلاعاتی از پیامهای حاوی آزار جنسی ایجاد کند. همچنین باور به این که مکالمات نظارت میشوند، میتواند اثر ذهنی بازدارنده داشته باشد و تمایل افراد به آزار همکاران خود را کاهش بدهد.»
اما به جز نکس، شرکتهای دیگر هم برای جنگ با آزار و اذیت جنسی از فناوریهای مشابهی استفاده میکنند. «مورگام لوئیس» نام یکی دیگر از شرکتهای حقوقی متمرکز بر حوزه حقوق کار است که در حال استفاده از این فناوری است. این شرکت اما به جای نظارت بر کارمندان، فناوری هوش مصنوعی را در راستای بررسی و تحیل ارتباطات پیشین مشتریهای خود به کار گرفت. «تس بلیر»، یکی از شرکای مورگان لوئیس میگوید: «ما از این فناوری در دهها پرونده استفاده کردیم و توانستیم ادله محکمهپسند گردآوری کنیم و در اقامه دعوی موفق شویم.»
برنامهای برای گزارش آزار جنسی
یک استارتآپ هوش مصنوعی دیگر به نام «اسپات»، برنامهای به اسم «چتبات» راهاندازی کرده است که به کارمندان امکان میدهد آزار جنسی را بدون افشای هویت خود گزارش دهند. این بات آموزش دیده که در چنین مواقعی به قربانی مشاوره بدهد و از او سوالاتی بپرسد تا بررسیها درباره اتهامات واردشده مبنی بر آزار جنسی، عمیقتر صورت بگیرد. آزارهایی که میتوانند فیزیکی یا دیجیتالی صورت گرفته باشند. در واقع این برنامه قصد دارد خلاهای بخشهای منابع انسانی در در قبال این گونه مشکلات را جبران و همزمان هویت افراد را محرمانه حفظ کند.»
تس بلیر میگوید: «این باتهای هوش مصنوعی میتوانند در کنار هم کار کنند تا به شکل موثرتری آزار جنسی در محل کار تشخیص داده شود. برنامههایی مثل چتبات پیش از درگیر شدن وکیل یا مدیر منابع انسانی میتوانند کارکرد داشته باشند.» اما به گفته او هر چقدر هم این باتها توسعه پیدا کنند، از آنها بیشتر میتوان به عنوان دستیار نیروی انسانی استفاده کرد و نه به عنوان یک قاضی یا هیئت منصفه و ضابط قضایی. او میگوید: «کامپیوترها صلاحیت قضاوت و ارزشگذاری را ندارند، آنها فقط اعلام میکنند که این مورد از الگوی مشخصشده تخطی کرده است و پس از آن همهچیز وابسته به تفسیر ما خواهد بود.»
نویسنده: ایزابل وودفرد
برگردان: نیو صدر
منبع: گاردین