اتحادیه اروپا، در راستای پیشگامی در تنظیم هوش مصنوعی، در سال ۲۰۲۱ نخستین پیش نویس قانون هوش مصنوعی را تدوین کرد. هدف از تدوین این قانون، ایجاد چارچوبی برای توسعه و استفاده مسولانه از هوش مصنوعی در حوزه اتحادیه اروپا بوده است. پس از حدود دو سال مذاکره، در تاریخ ۸ دسامبر ۲۰۲۳ مذاکره کنندگان در پارلمان اروپا و شورای اروپا به توافق موقت در مورد قانون هوش مصنوعی دست یافتند و در نهایت در ۲ فوریه ۲۰۲۴، کمیته نمایندگان دائم به تأیید توافق سیاسی حاصل شده در دسامبر ۲۰۲۳ رأی داد. مقررات قانون هوش مصنوعی به منظور حفاظت از حقوق اساسی، دموکراسی، حاکمیت قانون و پایداری زیست محیطی در برابر هوش مصنوعی پرخطر تدوین شده است. در عین حال، قانون مزبور به دنبال تقویت نوآوری و تبدیل اروپا به رهبر و پیشگام در زمینه هوش مصنوعی است. با وجود این، منتقدان زیادی معتقدند که قانون هوش مصنوعی اتحادیه اروپا در حمایت از حقوق بشر ناکام مانده و اصول اولیه حقوق بشر را در نظر نگرفته است.
در وهله اول، این قانون، هوش مصنوعی را سامانه هایی مبتنی بر ماشین تعریف میکند که برای عملکرد با سطوح مختلفی از استقلال طراحی شده اند (به طور کامل مستقل یا تا میزانی با دخالت انسانی)؛ پس از استقرار با گذشت زمان و با دریافت دادهها و اطلاعات جدید، توسعه و بهبود مییابند؛ قادرند از ورودی هایی که دریافت میکنند استنباط و استنتاج داشته باشند و برای استخراج نتایج مختلف مانند پیش بینیهای آینده، تولید محتوا، ارایه توصیهها یا اتخاذ تصمیمات استفاده شوند. قانون هوش مصنوعی رویکردی مبتنی بر ریسک را برای محصولات و خدمات هوش مصنوعی اتخاذ میکند و تنها سامانه هایی را با سطوحی از خطرهای خاص، زیر چتر نظارتی خود قرار میدهد. سامانههای زیادی از جمله سامانههای توصیه محتوا و فیلترهای هرزنامه، اکثریت کم خطر را تشکیل میدهند. در مقابل، استفادههای پرخطر مانند دستگاههای پزشکی و زیرساخت¬های حیاتی با الزامات سختگیرانه تری مواجه شده اند. علاوه بر این، برخی از کاربردهای هوش مصنوعی مانند سیستمهای امتیازدهی اجتماعی، پلیس پیشگیری و سیستمهای تشخیص احساسات به دلیل مخاطرات غیرموجه، به طور کامل ممنوع شده اند.
بدین ترتیب، قانون جدید هوش مصنوعی اتحادیه اروپا الزامات متفاوتی را برای سیستمهای کم خطر و پرخطر در نظر گرفته است. سیستمهای کم خطر با الزامات کمتری نسبت به سیستمهای پرخطر مواجه هستند. به عنوان مثال، سامانههای کم خطر نیازی به ارزیابی دقیق توسط نهادهای ناظر ندارند. ظاهرا، دلیل کم خطر شناخته شدن برخی سامانهها دسترسی نداشتن آنها به دادههای شخصی حساس، مانند اطلاعات پزشکی یا مالی، نداشتن تأثیر چندان سوء و مستقیم بر زندگی افراد و قابلیت پایین آنها در سوءاستفاده برای نقض حقوق بشر است. در مقابل، سامانههای پرخطر (مانند سیستمهای تشخیص چهره، سیستمهای امتیازدهی اجتماعی، سیستمهای تشخیص احساسات، سیستمهای هوش مصنوعی در حوزههای استخدام و مراقبت بهداشتی که آن دسته از سیستمهایی هستند که میتوانند خطرات قابل توجهی برای حقوق بشر و ایمنی افراد ایجاد کنند؛ مشمول الزاماتی همچون ارزیابی دقیق ریسک، مدیریت قوی داده، نظارت مستمر، شفافیت و پاسخگویی واقع شده اند. بنابراین، تعهدات روشنی برای سامانههای هوش مصنوعی که به دلیل امکان ورود آسیبهای چشمگیر به سلامت، ایمنی، حقوق اساسی، محیطزیست، دموکراسی و حاکمیت قانون، پرخطر تلقی میشوند، تعیین شده است. پیش از اینکه یک سیستم هوش مصنوعی پرخطر به کار گرفته شود، باید مورد ارزیابی قرار گیرد تا مشخص شود که آیا این سیستم به حقوق اساسی افراد، مانند حق حریم خصوصی، آزادی بیان یا برابری، آسیب میرساند یا خیر. همچنین، سامانههای هوش مصنوعی که برای تأثیرگذاری بر نتیجه انتخابات و رفتار رأیدهندگان طراحی میشوند، در زمره سیستمهای پرخطر قرار گرفته اند. شهروندان حق خواهند داشت که در مورد سامانههای هوش مصنوعی شکایت کنند و درباره تصمیمات مبتنی بر سامانههای هوش مصنوعی پرخطر که بر حقوق آنها تأثیر میگذارد توضیحات لازم را دریافت کنند.
همچنین، قانونگذاران اتحادیه اروپا در خصوص تهدیدات بالقوه هوش مصنوعی برای حقوق بشر، کاربردهای خاصی از هوش مصنوعی را ممنوع کرده اند. برای مثال استفاده از سیستم¬های طبقهبندی بیومتریک که از ویژگی¬های حساس مانند عقاید سیاسی، مذهبی، فلسفی، گرایش جنسی و نژاد برای شناسایی یا دسته بندی افراد استفاده میکنند به دلیل نقض حریم خصوصی و تبعیض بالقوه علیه افراد بر اساس ویژگیهای ذاتی آنها ممنوع است. همچنین، جمع آوری و ذخیره سازی تصاویر صورت افراد از اینترنت یا فیلمهای دوربین مدار بسته بدون هدف مشخص، مانند ایجاد پایگاههای اطلاعاتی تشخیص چهره، به دلیل نقض حریم خصوصی و سوءاستفاده احتمالی از اطلاعات جمع آوری شده، ممنوع شناخته شده است. استفاده از سیستمهای تشخیص احساسات در محیطهای کاری و موسسات آموزشی به دلیل نگرانی هایی که در خصوص نقض حریم خصوصی، سوءاستفاده از اطلاعات و تبعیض علیه افراد بر اساس حالات عاطفی آنها به دنبال دارد، کاربرد دیگری است که مشمول ممنوعیت این قانون واقع شده است.
گام مثبت دیگر در این قانون، ممنوعیت به کارگیری سامانههای رتبه بندی یا دسته بندی افراد بر پایه رفتار اجتماعی یا ویژگیهای شخصی ایشان است که به دلیل نقض حریم خصوصی، ایجاد تبعیض و سوق دادن جامعه به سمت نظارت همگانی، مخاطره آمیز تلقی شده اند. ممنوعیت به کارگیری سامانههای هوش مصنوعی که با هدف دور زدن اراده آزاد و دستکاری رفتار انسان طراحی شده اند، به دلیل نقض استقلال و آزادی انسان از موارد مهم دیگری است که باید بدان اشاره نمود. قانونگذاران همچنین استفاده از هوش مصنوعی برای سوءاستفاده از آسیب پذیریهای افراد، اعم از سن، معلولیت، موقعیت اجتماعی یا اقتصادی را به دلیل نقض حقوق افراد و تشدید نابرابریهای اجتماعی، ممنوع اعلام کرده اند.
تمامی موارد پیش گفته، در راستای حفظ حقوق شهروندی و دموکراسی در عصر هوش مصنوعی ضروری تلقی میشوند. به بیان دیگر، ممنوعیتهای هوش مصنوعی گامی مهم در جهت تضمین استفاده مسولانه و اخلاقی از این فناوری نوظهور است. شایان ذکر است که بر برخی از این ممنوعیتها استثنائات و معافیت هایی نیز وارد شده است، از جمله استفاده از سیستمهای شناسایی بیومتریک (RBI) به منظور جستجوی هدفمند قربانیان (ربایش، قاچاق، بهره کشی جنسی)، جلوگیری از یک تهدید تروریستی خاص، یا شناسایی فردی مظنون به ارتکاب یکی از جرایم خاص ذکر شده در مقررات (مانند تروریسم، قاچاق، بهره کشی جنسی، قتل، آدم ربایی، تجاوز جنسی، سرقت مسلحانه، مشارکت در یک سازمان جنایی، جنایت زیست محیطی).
علی رغم همه این موارد، نهادهای حقوق بشری از جمله عفو بینالملل، قانون جدید هوش مصنوعی اتحادیه اروپا را به دلیل اولویتدادن به منافع صنعت و نهادهای مجری قانون به جای حقوق بشر، به شدت مورد انتقاد قرار داده اند. در حقیقت، این قانون به دلیل امتیازات ناشی از لابی گری در صنعت، معافیتهای استفادههای خطرناک هوش مصنوعی توسط مقامات و نهادهای مجری قانون و مهاجرتی و خلأهایی که برخی از خطرناکترین فناوریهای هوش مصنوعی ممنوع نشده است، مورد انتقاد قرار گرفته است. به بیان واضح تر، منتقدان معتقدند که این قانون به نفع شرکتهای بزرگ فناوری است و به آنها اجازه میدهد تا در توسعه و استفاده از هوش مصنوعی نقش پررنگی داشته باشند. این امر میتواند منجر به تسلط این شرکتها بر بازار هوش مصنوعی و نادیده گرفته شدن حقوق و نیازهای مردم شود. اتحادیه اروپا، در این قانون، استفاده از هوش مصنوعی برای اهداف امنیتی و مهاجرتی را از برخی الزامات قانونی معاف میکند. این امر میتواند منجر به سوء استفاده از هوش مصنوعی از سوی مقامات دولتی و نقض حقوق بشر شود. این قانون همچنین، برخی از خطرناکترین فناوریهای هوش مصنوعی مانند سیستمهای امتیازدهی اجتماعی و تشخیص احساسات را ممنوع نمی کند. منتقدان برآن اند که این کاستی میتواند منجر به استفاده از این فناوریها برای اهداف نادرست و نقض حقوق بشر شود.
در اوایل سال ۲۰۲۳، پارلمان اروپا طی اقدامی قابل توجه، ممنوعیت استفاده از تشخیص احساسات را در چهار زمینه تصویب کرد: آموزش، محل کار، اجرای قانون و مهاجرت. این مصوبه، گامی مهم در جهت حفاظت از حقوق بشر و حریم خصوصی افراد در برابر سوءاستفاده از این فناوری نوظهور به حساب میآمد. اما متأسفانه، تحت فشار برخی از کشورهای عضو اتحادیه اروپا، ممنوعیت استفاده از تشخیص احساسات در زمینههای اجرای قانون و مهاجرت از متن نهایی قانون هوش مصنوعی اتحادیه اروپا حذف شد. این امر، نشان دهنده رویکرد دوگانه و تبعیض آمیز این قانون در قبال حقوق اساسی افراد است. به طوری که افراد مهاجر و کسانی که در حاشیه جامعه قرار دارند، از حفاظتهای قانونی کمتری برخوردار میشوند. حذف ممنوعیت استفاده از تشخیص احساسات در زمینههای اجرای قانون و مهاجرت، نگرانیهای جدی را در مورد تبعات منفی این فناوری بر حقوق و آزادیهای افراد ایجاد کرده است. استفاده از این فناوری در این زمینهها، میتواند به نقض حریم خصوصی، تبعیض و سوءاستفاده از افراد منجر شود؛ چراکه هنوز ابهامات زیادی در مورد نحوه قاعده مندسازی استفاده مقامات مجری قانون و نهادهای مهاجرتی از سامانههای هوش مصنوعی به کمک قانون هوش مصنوعی اتحادیه اروپا وجود دارد.
علاوه بر این، در حالی که ممنوعیت تشخیص احساسات در قانون هوش مصنوعی اتحادیه اروپا گامی مثبت است، این قانون ظاهرا استثناهایی را برای اهداف پزشکی یا ایمنی مجاز میداند. این خلأ میتواند بسیار خطرناک باشد، زیرا شرکتها در حال حاضر سامانههای به اصطلاح «تشخیص پرخاشگری» را میفروشند که تصاویر مردان سیاه پوست را تهاجمی تر از مردان سفیدپوست میشناسند. استقرار چنین سیستمهایی در مدارس یا محلهای کار میتواند به نظارت نژادپرستانه از دانش آموزان یا کارگران سیاه پوست منجر شود.
سیستم طبقه بندی پرخطر در قانون هوش مصنوعی اتحادیه اروپا، که مورد انتقاد Access Now (یک سازمان غیرانتفاعی که بر دفاع و گسترش حقوق دیجیتال کاربران در سراسر جهان تمرکز دارد) و دیگر سازمانها بود، با اضافه شدن یک «فیلتر» به آن، بسیار ضعیف تر شد. پیشنهاد اولیه کمیسیون اروپا در این مورد منطقی بود که همه موارد استفاده در فهرست برنامههای پرخطر، باید از تعهدات خاصی برای تضمین حقوق افراد پیروی میکردند. اما تحت فشار بخش صنعت و برخی دولتها، این سیستم طبقه بندی با افزودن فیلتری که معیارهای آن مبهم و موسع است، تغییر کرد. درواقع، با اضافه شدن این فیلتر، طراحان و توسعه دهندگان میتوانند با اثبات اینکه سیستم هوش مصنوعی آنها در یکی از دسته بندیهای خاص این فیلتر قرار میگیرد، از برخی یا تمام تعهدات خود شانه خالی کنند. در نتیجه، قانون هوش مصنوعی به طور واضح منافع صنعت را بر حقوق اساسی افراد در اولویت قرار میدهد. این نقص در قانون هوش مصنوعی نگرانکننده است و میتواند به نقض حقوق افراد در هنگام استفاده از سیستمهای هوش مصنوعی پرخطر منجر شود.
یکی از موارد بسیار مهمی که در مورد نگرانیها نسبت به قانون هوش مصنوعی اتحادیه اروپا باید به آن اشاره کرد، معافیت امنیت ملی است که به کشورهای عضو اجازه میدهد تا در موارد خاص، از مقررات مربوط به هوش مصنوعی مستثنی شوند. هدف از این معافیت حفظ توانایی کشورهای عضو در محافظت از امنیت ملی خود در برابر تهدیدات خارجی شناخته شده است و شامل استفاده از سیستمهای هوش مصنوعی برای اهداف نظامی، دفاعی و امنیت ملی از جمله استفاده از سامانههای هوش مصنوعی برای جمعآوری اطلاعات و عملیات سرّی میشود. البته اعمال این معافیت منوط به رعایت شرایطی است از جمله، کشورهای عضو باید دلایل موجهی برای استفاده از معافیت امنیت ملی ارایه دهند. استفاده از سیستمهای هوش مصنوعی باید ضروری و متناسب با تهدید امنیتی باشد و با حقوق و آزادیهای اساسی افراد تناسب داشته باشد و جبرانهای موثر و لازم در نظر گرفته شود. اما به هر حال، برخی از منتقدان این معافیت را بسیار گسترده میدانند و معتقدند که میتواند به سوءاستفاده از قدرت توسط دولتها منجر شود و نگرانیهایی در مورد عدم شفافیت در مورد نحوه استفاده از این معافیت وجود دارد.
در مجموع میتوان گفت که قانون هوش مصنوعی اتحادیه اروپا گامی مثبت در جهت قاعده مند ساختن استفاده از هوش مصنوعی و استفاده مسولانه از این فناوری نوین است. با این حال، برای اطمینان از اینکه این قانون به طور کامل از حقوق بشر محافظت میکند، باید اصلاحاتی در آن انجام شود. با اقداماتی همچون، محدود کردن دامنه معافیت امنیت ملی، افزایش تعهدات شفاف ساز برای مقامات مجری قانون و نهادهای مهاجرتی و شفاف تر کردن لیست سامانههای پرخطر، قانون هوش مصنوعی اتحادیه اروپا میتواند به ابزاری قدرتمند برای محافظت از حقوق بشر در عصر هوش مصنوعی تبدیل شود.









دیدگاهتان را بنویسید