×

سواد هوش مصنوعی اجباری است
قانون جامع هوش مصنوعی اروپا تاکید می‌کند

  • ۲۶ بهمن ۱۴۰۴
  • 7 بازدید
  • ۰
  • یکی از ابتکارات قانون جامع هوش مصنوعی اروپا الزام برای ارتقا «سواد هوش مصنوعی» در میان استقرار دهندگان، کارکنان و مخاطبان است. ماده 4 این قانون صراحتا بر این موضوع تاکید دارد و الزامات و دستورالعمل هایی نیز در این زمینه آماده و اجرا شده است.
    قانون جامع هوش مصنوعی اروپا تاکید می‌کند
  • تعاریف ماده ۴ قانون هوش مصنوعی

    ماده ۴ قانون هوش مصنوعی ایجاب می‌کند که ارایه‌دهندگان و استقراردهندگان سیستم‌های هوش مصنوعی باید اقداماتی را برای اطمینان از سطح کافی سواد هوش مصنوعی کارکنان خود و سایر افرادی که از طرف آنها با عملیات و استفاده از سیستم‌های هوش مصنوعی سروکار دارند، انجام دهند. آنها موظفند این کار را با در نظر گرفتن دانش فنی، تجربه، تحصیلات و آموزش کارکنان و سایر افراد و همچنین زمینه‌ای که سیستم‌های هوش مصنوعی در آن استفاده می‌شوند و افرادی که سیستم‌های هوش مصنوعی برای آنها استفاده می‌شوند، انجام دهند.
    مفهوم سواد هوش مصنوعی که در ماده ۴ قانون هوش مصنوعی ذکر شده است، به تعریف این اصطلاح در ماده ۳(۵۶) قانون هوش مصنوعی متکی است که طبق آن: «سواد هوش مصنوعی» به معنای مهارت‌ها، دانش و درکی است که به ارایه‌دهندگان، استقراردهندگان و افراد آسیب‌دیده، با در نظر گرفتن حقوق و تعهدات مربوطه خود در چارچوب این آیین‌نامه، اجازه می‌دهد تا استقرار آگاهانه‌ای از سیستم‌های هوش مصنوعی انجام دهند و همچنین در مورد فرصت‌ها و خطرات هوش مصنوعی و آسیب‌های احتمالی که می‌تواند ایجاد کند، آگاهی کسب کنند.
    ماده ۴ قانون هوش مصنوعی، یک ماده کلیدی برای اطمینان از این است که همه ارایه دهندگان و استقرار دهندگان سیستم‌های هوش مصنوعی، کارکنان خود را به مهارت‌ها، دانش و درک صحیح از سیستم(های) ارایه شده یا مستقر شده مجهز کنند. این ماده مربوط به هر کسی در سازمان است که مستقیما با یک سیستم هوش مصنوعی سروکار دارد و مفاد شفافیت (ماده ۱۳ قانون هوش مصنوعی) و نظارت انسانی (ماده ۱۴ قانون هوش مصنوعی) مندرج در این آیین‌نامه را تقویت می‌کند. در عین حال، ماده ۴ به طور غیرمستقیم به حفاظت از افراد آسیب‌دیده کمک می‌کند، زیرا اجرای موثر قوانین قانون هوش مصنوعی را تضمین می‌کند.
    «افرادی که به نمایندگی از ارایه دهندگان/استقرار دهندگان با عملیات و استفاده از سیستم‌های هوش مصنوعی سروکار دارند» به این معنی است که این افراد کارمند نیستند، بلکه افرادی هستند که به طور کلی تحت اختیار سازمانی قرار دارند. به عنوان مثال، می‌توانند یک پیمانکار، یک ارایه دهنده خدمات، یک مشتری باشند.
    ماده ۳ (۵۶) به افراد آسیب‌دیده اشاره می‌کند. همچنین در بند ۲۰ آمده است: «برای به دست آوردن بیشترین مزایا از سیستم‌های هوش مصنوعی در عین محافظت از حقوق اساسی، سلامت و ایمنی و برای فعال کردن کنترل دموکراتیک، سواد هوش مصنوعی باید ارایه دهندگان، استقراردهندگان و افراد آسیب‌دیده را با مفاهیم لازم برای تصمیم‌گیری آگاهانه در مورد سیستم‌های هوش مصنوعی مجهز کند. این مفاهیم ممکن است با توجه به زمینه مربوطه متفاوت باشند و می‌توانند شامل درک کاربرد صحیح عناصر فنی در طول مرحله توسعه سیستم هوش مصنوعی، اقداماتی که باید در طول استفاده از آن اعمال شود، روش‌های مناسب برای تفسیر خروجی سیستم هوش مصنوعی و در مورد افراد آسیب‌دیده، دانش لازم برای درک چگونگی تأثیر تصمیمات گرفته شده با کمک هوش مصنوعی بر آنها باشد. در زمینه کاربرد این آیین‌نامه، سواد هوش مصنوعی باید بینش‌های لازم را برای اطمینان از انطباق مناسب و اجرای صحیح آن در اختیار همه بازیگران مربوطه در زنجیره ارزش هوش مصنوعی قرار دهد. علاوه بر این، اجرای گسترده اقدامات سواد هوش مصنوعی و معرفی اقدامات پیگیری مناسب می‌تواند به بهبود شرایط کاری و در نهایت حفظ مسیر تثبیت و نوآوری هوش مصنوعی قابل اعتماد در اتحادیه کمک کند.» با توجه به موارد فوق، بسته به ریسک خاص، داشتن سواد برای مشتریان/مراجع نیز می‌تواند مفید باشد.
    ماده ۴ قانون هوش مصنوعی، تعهدی برای سنجش دانش هوش مصنوعی کارکنان ندارد. با این حال، تأکید می‌کند که ارایه‌دهندگان و توسعه‌دهندگان هوش مصنوعی باید با در نظر گرفتن دانش فنی، تجربه، تحصیلات و آموزش کارکنان، سطح کافی از سواد هوش مصنوعی را تضمین کنند.

    رعایت ماده ۴
    دفتر هوش مصنوعی الزامات سختگیرانه‌ای در مورد ماده ۴ قانون هوش مصنوعی و «سطح کافی سواد هوش مصنوعی» آن اعمال نخواهد کرد. برعکس، با توجه به موضوع گسترده سواد هوش مصنوعی و فناوری به سرعت در حال تکامل هوش مصنوعی، درجه خاصی از انعطاف‌پذیری را ضروری می‌داند. با این حال، حداقل برای رعایت ماده ۴ قانون هوش مصنوعی، ارایه‌دهندگان و استقراردهندگان سیستم‌های هوش مصنوعی باید:
    الف) درک کلی از هوش مصنوعی در سازمان خود را تضمین کنند: هوش مصنوعی چیست؟ چگونه کار می‌کند؟ چه هوش مصنوعی در سازمان ما استفاده می‌شود؟ فرصت‌ها و خطرات آن چیست؟
    ب) نقش سازمان خود (ارایه‌دهنده یا استقراردهنده سیستم‌های هوش مصنوعی) را در نظر بگیرند: آیا سازمان من در حال توسعه سیستم‌های هوش مصنوعی است یا فقط از سیستم‌های هوش مصنوعی توسعه‌یافته توسط سازمان دیگری استفاده می‌کند؟
    ج) ریسک سیستم‌های هوش مصنوعی ارایه شده یا مستقر شده را در نظر بگیرند: کارمندان هنگام برخورد با چنین سیستم هوش مصنوعی چه چیزهایی را باید بدانند؟ خطراتی که باید از آنها آگاه باشند چیست و آیا باید از کاهش آنها آگاه باشند؟
    د) اقدامات سوادآموزی هوش مصنوعی خود را به طور مشخص بر اساس تحلیل قبلی بنا کنند و موارد زیر را در نظر بگیرند: تفاوت‌ها در دانش فنی، تجربه، تحصیلات و آموزش کارکنان و سایر افراد/ کارمندان یا اشخاص چقدر در مورد هوش مصنوعی و سیستم‌های سازمانی که استفاده می‌کنند، اطلاعات دارند؟ چه چیزهای دیگری باید بدانند؟/ سیستم هوش مصنوعی در کدام بخش و برای کدام هدف/خدمات استفاده می‌شود؟
    همچنین سازمان‌ها باید رویکرد سواد هوش مصنوعی خود را تطبیق دهند. به عنوان مثال، اگر سیستم‌های هوش مصنوعی سازمان پرخطر باشند، طبق فصل سوم قانون هوش مصنوعی، ممکن است اقدامات اضافی برای اطمینان از آگاهی کارکنان از نحوه برخورد با سیستم‌های هوش مصنوعی مورد نظر و جلوگیری و/یا کاهش خطرات آنها مرتبط باشد.
    این امر همچنین با سایر مفاد قانون هوش مصنوعی همسو است. به عنوان مثال، ماده ۲۶ تعهدی را برای استقرار سیستم‌های پرخطر ایجاد می‌کند تا اطمینان حاصل شود که کارکنانی که در عمل با سیستم‌های هوش مصنوعی سروکار دارند، به اندازه کافی آموزش دیده‌اند تا سیستم را مدیریت کنند و نظارت انسانی را تضمین کنند. بنابراین، تکیه بر دستورالعمل‌های استفاده کافی نیست، اقدامات بیشتری لازم است.
    وقتی صحبت از سواد هوش مصنوعی می‌شود، هیچ الگوی یکسانی برای همه وجود ندارد و دفتر هوش مصنوعی قصد ندارد الزامات سختگیرانه یا آموزش‌های اجباری را اعمال کند. الزامات یک آموزش به زمینه مشخص بستگی دارد.
    در ۱۹ نوامبر ۲۰۲۵ کمیسیون اروپا دستورالعمل دیجیتال را با اصلاحات هدفمند در قانون هوش مصنوعی، به عنوان بخشی از تلاش گسترده‌تر کمیسیون برای ساده‌سازی و موثرتر کردن مجموعه قوانین دیجیتال اتحادیه اروپا، پیشنهاد داد.
    در مورد ماده ۴، کمیسیون پیشنهاد داد که تعهد کشورهای عضو و کمیسیون برای ارتقای سواد هوش مصنوعی و ارتقاء مهارت و تجدید مهارت در هوش مصنوعی، به جای اعمال یک تعهد نامشخص بر سازمان‌ها، تغییر کند. با انجام این کار، کمیسیون همچنین تداوم تلاش‌هایی را که تاکنون انجام شده است (به ویژه از طریق این پرسش و پاسخ در مورد سواد هوش مصنوعی و مخزن شیوه‌های سواد هوش مصنوعی) تضمین می‌کند.
    لازم به ذکر است که برای کسانی که سیستم‌های هوش مصنوعی پرخطر را مستقر می‌کنند، تعهد به اطمینان از آموزش کارکنانشان برای اطمینان از نظارت انسانی همچنان پابرجاست.

    اجرای ماده ۴
    ماده ۴ قانون هوش مصنوعی در ۲ فوریه ۲۰۲۵ لازم‌الاجرا شد، بنابراین تعهد به انجام اقداماتی برای اطمینان از سواد هوش مصنوعی کارکنان آنها از قبل اعمال می‌شود. قوانین نظارت و اجرا از ۳ آگوست ۲۰۲۶ به بعد اعمال می‌شود.
    نظارت و اجرای ماده ۴ قانون هوش مصنوعی بر عهده دفتر هوش مصنوعی نیست، بلکه تحت اختیار مقامات ملی نظارت بر بازار است. مقامات ملی نظارت بر بازار از ۲ آگوست ۲۰۲۶ نظارت و اجرای قوانین را آغاز خواهند کرد. در حالی که تصمیم‌گیری در مورد اجرا بر عهده مقامات ملی نظارت بر بازار در کشورهای مختلف عضو است، دفتر هوش مصنوعی برای پشتیبانی از اجرای مناسب، با هیئت مدیره هوش مصنوعی همکاری نزدیکی خواهد داشت.
    مقامات نظارت بر بازار ملی می‌توانند مجازات‌ها و سایر اقدامات اجرایی را برای مجازات نقض ماده ۴ اعمال کنند. این امر بر اساس قوانین ملی خواهد بود که کشورهای عضو قرار است تا ۲ آگوست ۲۰۲۵ تصویب کنند.
    تأکید بر این نکته مهم است که اجرای قانون هوش مصنوعی از رویکردی متناسب پیروی می‌کند. هرگونه مجازات باید متناسب با مورد خاص باشد و عواملی مانند ماهیت و شدت و عمدی و سهل‌انگارانه بودن تخلف را در نظر بگیرد. با این حال، اگر مدرکی دال بر وقوع حادثه به دلیل عدم آموزش و راهنمایی مناسب کارمندان یا سایر افراد وجود داشته باشد، این احتمال بیشتر می‌شود.
    هنگامی که آسیب/خسارتی وجود دارد، طبق قانون ملی می‌توان از ارایه‌دهنده سیستم هوش مصنوعی شکایت کرد. قانون هوش مصنوعی جرایم کیفری یا حق جبران خسارت ایجاد نمی‌کند.
    کمیسیون‌های اروپایی تاکنون اقدامات متعددی را برای کارکنان خود در مورد سواد هوش مصنوعی اجرا کرده‌اند:
    ایجاد پورتال وب داخلی مخصوص هوش مصنوعی به عنوان یک مرجع جامع برای دسترسی همه کارکنان به محتوای مرتبط با هوش مصنوعی، دستورالعمل‌های هوش مصنوعی، منابع آموزشی هوش مصنوعی، رویدادها و اخبار.
    تعریف بسته‌های یادگیری هوش مصنوعی در پلتفرم آموزشی کمیسیون، با هدف مخاطبان مختلف – عمومی، مدیران و توسعه‌دهندگان (متخصص). این بسته‌ها شامل فهرستی از آموزش‌های مرتبط هستند که به ضروری، بسیار توصیه‌شده و توصیه‌شده طبقه‌بندی می‌شوند. آموزش‌های اضافی و ضبط وبینارها نیز در پلتفرم موجود است.
    آموزش ابزارهای هوش مصنوعی؛ بخش خاصی در پورتال هوش مصنوعی، فهرست ابزارهای هوش مصنوعی را که در دسترس همه کارکنان است، ایجاد کرده است که شامل منابع یادگیری مرتبط برای هر ابزار است. جلسات پرسش و پاسخ دوره‌ای در مورد استفاده از هوش مصنوعی در کار روزانه شما وجود دارد.
    یک جامعه‌ عملی هوش مصنوعی وجود دارد که در آن هر فردی می‌تواند سوالات مربوط به هوش مصنوعی را مطرح کند و با متخصصان هوش مصنوعی تعامل داشته باشد.

    نوشته های مشابه

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *