این فناوری در صورت تشخیص تعرضات جنسی، حضور دانش آموزان تعلیقی، حمل کنندگان سلاح، اعضای مشکوک به دار و دسته ها می تواند برای اخطاردادن به مقامات مورد استفاده قرار گیرد. به گزارش ندای انقلاب، مقامات مدارس ناحیه لاک پورت در نیویورک برای پیشگیری از تیراندازی درمدارس، اقدام به خرید فناوری تشخیص چهره کرده اند. بر اساس این برنامه که در ماه سپتامبر آغاز گردید، تمام ۱۰ ساختمان وابسته به این ناحیه که درست در شمال بوفالو قرار دارد به یک سیستم نظارتی مجهز می شوند که می تواند چهره ها و اشیا را شناسایی کند. این نرم افزار که ایجیز نام دارد، توسط اس ان تکنولوژیر کورپ که یک شرکت بیومتریک کانادایی است که به طور خاص برای مدارس تبلیغ می کند، ساخته شده است. این فناوری در صورت تشخیص تعرضات جنسی، حضور دانش آموزان تعلیقی، حمل کنندگان سلاح، اعضای مشکوک به دار و دسته ها یا هر کس دیگری که در «فهرست سیاه» تهیه شده از طرف مدرسه قرار دارد، می تواند برای اخطاردادن به مقامات مورد استفاده قرار گیرد. ایجیز همچنین هر زمان که یکی از «۱۰ سلاح پرطرفدار برتر» که در تیراندازی های مدارس مورد استفاده قرار گرفته اند در دوربین ظاهر شود، اقدام به هشدار دادن می کند. به نوشته نیاگارا گازت این ناحیه که اخیرا در قالب کمک های مالی اهدایی به «مدارس هوشمند» بیش از ۴ میلیون دلار از ایالت دریافت کرده، در حال هزینه کردن این پول در این زمینه و دیگر اقدامات احتیاطی برای سیستم های امنیتی خود است، از جمله نصب شیشه های ضد گلوله برای پنجره ها و سیستم اعلان گروهی. مایکل میشل تی. بردلی از مسئولین لاک پورت به بوفالو نیوز گفته است: «ما همیشه باید حالت آمادگی خود را حفظ کنیم. هیچ وقت نباید هشیاری خود را از دست دهیم. برای هیئت مدیریه آموزش و پرورش و ناحیه لاک پورت اولویت شماره ۱ این است: حفظ امنیت مدارس.» با این حال با توجه به ماهیت خشونت همراه با اسلحه در مدارس، خرید فناوری نظارتی از سوی لاک پورت ظاهرا ناکافی و پر هزینه است. تمام تیراندازی های عمده ای که ظرف پنج سال گذشته در مدارس آمریکا انجام شده، توسط دانش آموزان فعلی یا فارغ التحصیلان آن مدرسه صورت گرفته اند. ریچل لوینسون والدمن یک کارشناس امنیتی و امور پلیسی در مرکز عدالت برنان می گوید: «این ها دانش آموزانی هستند که مدرسه دلیلی برای وارد کردن چهره آنها در فهرست سیاه سیستم تشخیص چهره پیدا نکرده است.» وی می گوید سیستم تشخیص چهره نیز همینطور بی فایده به نظر می رسد. اکثر تیراندازان تا پیش از آتش گشودن اسلحه شان را نشان نمی دهند و زمانی هم که این کار را می کنند، یک الگوریتم ردگیری شی که بتواند نوع دقیق سلاحی را که آنها شلیک می کنند تشخیص دهد، استفاده چندانی ندارد. همانطور که جیم شولتز یکی از اولیای ناحیه لاک پورت به بوفالو نیوز گفته، این فناوری در بهترین حالت تنها چند ثانیه بیشتر برای واکنش نشان دادن به یک تیراندازی را در اختیار مسئولین قرار می دهد. نکته دیگر اینکه اکثر تیراندازی ها عمدتا ظرف چند ثانیه به پایان می رسند، در نتیجه تشخیص چهره یا سلاح، ارزشی هم اندازه تماس با ۹۱۱ را دارد. شولتز می افزود که مدارس لاک پورت قبلا تمهیدات پیشگیرانه ای را نظیر قفل کردن درها و ملزم کردن بازدیدکنندگان به بازرسی بیشتر به کار بسته اند. به دلیل آنکه فناوری تشخیص چهره به همان اندازه برای واکنش مستقیم به تیراندازی مدارس نامناسب به نظر می رسد- که خودشان از نظر آماری رخدادهای نادری هستند- کارشناسان حریم خصوصی بیم دارند که کارکرد اولیه این فناوری بسط نظارت و مجرم سازی نوجوانان باشد. لوینسون والدمن می گوید: «اگر قصد این باشد که این فناوری دراین مسیربه کار گرفته شود، فناوری لاک پورت به شکلی کارآمد می تواند به یک سیستم نظارتی تبدیل شود و نه یک سیستم امنیتی.» سیستم لاک پورت داده ها را تا ۶۰ روز ذخیره می کند. دانش آموزان به طورخودکار وارد بانک داده های آن نمی شوند، بلکه مدیران قادر به استفاده از این سیستم برای «دنبال کردن» کسانی که مرتکب تخلف شده اند، هستند. یکی از مقامات مدرسه می گوید: «اگر ما دانش آموزی داشته باشیم که تخلف مشابهی را از آیین نامه انضباطی مرتکب شود، ما می توانیم این دانش آموز را درسراسر روز دنبال کنیم تا ببینیم احتمالا با چه کسانی تعامل دارد.» لوینسون والدمن می گوید این احتمال وجود دارد که این نوع توانایی های نظارتی، به شکل بی تناسبی علیه دانش آموزان رنگین پوست به کار رود که هم اکنون نیز درمدارس درمعرض سو گیری های انضباطی قرار دارند. چندین مطالعه نشان داده است که بچه های سیاه پوست و لاتین تبار، فارغ از نوع رفتاری که از آنها سر می زند، همواره خطرناک تر از همسن و سالان سفیدپوستشان قلمداد می شوند. بر اساس گزارش دفتر پاسخگویی دولت که در ماه آوریل منتشر شد، به نسبت دانش آموزان سفید پوست، احتمال اینکه دانش آموزان سیاه پوست مورد بدرفتاری قراربگیرند بیشتر است، با این حال احتمال تعلیق، تنبیهات بدنی یا دستگیری مرتبط با مدرسه برای آنها بیشتر است. جان کاسیک از اعضای صندوق دفاع قانونی و تحصیلی ان ای ای سی پی که قبلا پلیس در محلاتشان وی را تحت نظارت قرار داده اند می گوید: «این وضعیت نابرابری های نژادی را که قبلا شاهد بوده ایم چه در بعد نظارت و چه اجرای قانون وخیم تر می کند. به گفته او اکنون باید شاهد همین فضا درمدارس آنها باشیم. تحقیق انجام شده از طرف ان ای ای سی پی نشان می دهد که گماشتن ماموران پلیس در مدارس، شمار دانش آموزانی را که به خاطر حوادثی بی ضرر زندانی شده اند، افزایش داده است. کاسیک می افزاید: «فناروی تشخیص چهره می تواند بر نحوه تعامل دانش آموزان اثرمنفی بگذارد. آنها ممکن است بترسند که با دانش آموزان دیگر مرتبط شوند یا در رفتارهای نوجوانانه مشارکت کنند. این فناوری این توانایی را دارد که دوستی ها را تبدیل به جرم کند.» وکلای حقوق مدنی پرسش هایی را در این باره مطرح کرده اند که آیا گردآوری داده های بیومتریک درمدارسی چون ناحیه لاک پورت، این احتمال را به وجود نمی آورد که نه تنها نوار نقاله مدرسه به زندان را خوراک دهد، بلکه اخراج ها از کشور را تشدید کند. مدارس می توانند داده های بیومتریک خود را با نهادهای مجری قانون به اشتراک بگذارند و در مقابل اطلاعاتی را از اداره مهاجرت و قوانین گمرکی - یا برعکس- دریافت کنند. در کالیفرنیا و نیوجرسی، اداره مهاجرت و قوانین گمرکی والدین مهاجر غیرقانونی را هنگام رساندن کودکانشان به مدرسه دستگیر کرده و این اداره اخیرا دست کم به یک بانک داده خودکار دسترسی پیدا کرده اند. لاک پورت اولین ناحیه آموزش و پرورشی نیست که از این نوع فناوری نظارتی پیشرفته که نوعا در زندان ها، فرودگاه ها و ایست بازرسی های مرزی به کارگرفته می شود، استفاده می کند. فناوری تشخیص چهره قبلا در دبیرستان های مگنولیا، آرکانزاس و سنت لوئیس نصب شده اند. یک منطقه آموزش و پرورشی در نیومکزیکو فناوری هشداری را به کار گرفته که با برخاستن اولین صدای شلیک گلوله پلیس را مطلع می کند، در حالی که یک منطقه دیگر در نیویورک رادارهای بشقابی خودکار نصب کرده است. در آیوا و تگزاس به همراه چندین منطقه دیگر، نواحی آموزش و پرورشی، مقامات اجرای قانون و ماموران مستقر در مدارس را به دوربین های نصب شده روی بدن مجهز کرده اند. مدافعان حریم خصوصی همچنین در این باره نگرانند که نظارت فراگیر اولیه چه درس هایی را در مورد جامعه ای که در آن زندگی می کنند به دانش آموزان می دهد. ریتا اسکلار مدیر اتحادیه آزادی های مدنی آمریکا در آرکانزاس در بیانیه ای گفته است: «اجتماعات و مدارس باید سخت به نوع پیامی که در حال انتقال آن به کودکان هستند بیندیشند، زمانی که کودکان را در مدارس به گونه ای تحت نظارت قرار می دهند که گویی در زندان یا یک بازداشتگاه قرار دارند، چه پیامی قرار است به آنها منتقل شود؟ ما به هیئت مدیره مدرسه مگنولیا و تمام نواحی آموزش و پرورش آرکانزاس می گوییم که از این نوع ترفندهای پر هزینه و زیانبار پرهیز کنند و رویکردهای معقولانه تری را برای امن نگه داشتن مدارس در نظر بگیرند.» البته این سیستم های نظارتی ارزان تمام نمی شوند و امکان دارد که شرکت ها از داده هایی که از دانش آموزان گردآوری می کنند، به دنبال کسب پول باشند. فیلیپ هاگن یک فناوری شناس که به مدرسه ای در لاک پورت رفته می گوید: «اگر یک نفوذی نخواهد از این ویدئوها به عنوان راهی برای به دست آوردن و «بهبود دادن» الگوریتم استفاده کند، حتما به شدت جا خواهم خورد. این احتمال در ذات هر عملیات یادگیری ماشینی وجود دارد. از یک نقطه نظر اخلاقی من قطعا نگران این موضوع هستم. روشن نیست که چه کسی مالک این داده هاست و تا چه مدت حفظ می شوند و اینکه آیا والدین حق دسترسی به این سیستم را دارند یا خیر.» هزینه این فناوری به خصوص زمانی دردسرساز می شود که درنظر بگیریم ممکن است این فناوری حتی کارآیی هم نداشته باشد. برخی از نرم افزارهای تشخیص چهره عملکرد ضعیفی دارند. پلیس انگلیس به تازگی با انتشار مدارکی که نشان می داد یک سیستم در ولز ۹۲ درصد اوقات محاسبات نادرست انجام می داده، به صدر اخبار راه یافت. همانطور که چندین مطالعه نشان داده اند، به خصوص این فناوری وقتی با چهره های سیاه سروکار پیدا می کند مشکلات بیشتری دارد. در تازه ترین این گزارش ها، جوی بولاموینی پژوهشگر آزمایشگاه رسانه ای ام آی تی نشان داده زنانی که پوست چهره تیره تری دارند، تا ۳۵ درصد محتمل تر بوده که توسط برخی از الگوریتم های تشخیص چهره به اشتباه تشخیص داده شوند. مطالعات دیگر نشان داده اند که این فناوری در مورد کودکان کارآیی کمتری دارد. هاگن و لوینسون والدمن پرسیده اند که آیا این فناوری برای تعیین میزان دقت آن مستقلا مورد تحقیق و بررسی قرار گرفته است یا خیر. نویسنده: آوا کوفمن (Ava Kofman) نویسنده ساکن نیویورکمنبع: yon.ir/YJCwB انتهای پیام/