×

چگونه هوش مصنوعی استقرار دولت دیجیتال را تسریع می‌کند؟

  • ۰۱ آذر ۱۴۰۴
  • 115 بازدید
  • ۰
  • این بخش توضیح می‌دهد که چگونه هوش مصنوعی (AI) می‌تواند استقرار دولت دیجیتال را تسریع کند. این بخش، دولت را به عنوان توسعه‌دهنده و کاربر هوش مصنوعی، فراتر از نقش‌های سنتی سرمایه‌گذار و تنظیم‌کننده، قرار می‌دهد و فرصت‌ها - بهره‌وری (کارایی و اثربخشی)، پاسخگویی و مسوولیت‌پذیری - را در سراسر چرخه سیاست‌گذاری دسته‌بندی می‌کند و بر پیش‌نیازها در مدیریت داده‌ها و اطلاعات تأکید می‌کند. همچنین خطرات خاص دولت و خطرات عدم اقدام را در رویکردهای نظارتی نوظهور تشریح می‌کند و با چشم‌اندازی برای هوش مصنوعی قابل اعتماد در دولت به پایان می‌رسد
    چگونه هوش مصنوعی استقرار دولت دیجیتال را تسریع می‌کند؟
  • این بخش توضیح می‌دهد که چگونه هوش مصنوعی (AI) می‌تواند استقرار دولت دیجیتال را تسریع کند. این بخش، دولت را به عنوان توسعه‌دهنده و کاربر هوش مصنوعی، فراتر از نقش‌های سنتی سرمایه‌گذار و تنظیم‌کننده، قرار می‌دهد و فرصت‌ها – بهره‌وری (کارایی و اثربخشی)، پاسخگویی و مسوولیت‌پذیری – را در سراسر چرخه سیاست‌گذاری دسته‌بندی می‌کند و بر پیش‌نیازها در مدیریت داده‌ها و اطلاعات تأکید می‌کند. همچنین خطرات خاص دولت و خطرات عدم اقدام را در رویکردهای نظارتی نوظهور تشریح می‌کند و با چشم‌اندازی برای هوش مصنوعی قابل اعتماد در دولت به پایان می‌رسد.

    ۱- استقرار دولت دیجیتال

    دولت دیجیتال برای تغییر فرآیندها و خدمات به روش‌هایی که پاسخگویی و قابلیت اطمینان بخش عمومی را بهبود می‌بخشد و دولت‌ها را به مردم خود نزدیک‌تر می‌کند، ضروری است. دولت‌های بالغ دیجیتال می‌دانند که فناوری نه‌تنها یک محرک استراتژیک برای بهبود کارایی است، بلکه سیاست‌ها را موثرتر و دولت‌ها را بازتر، پاسخگوتر، نوآورتر، مشارکتی‌تر و قابل اعتمادتر می‌کند.

    همه‌گیری کووید‌۱۹ بر اهمیت فناوری‌ها و داده‌های دیجیتال در ایجاد تاب‌آوری اقتصادی و اجتماعی از طریق رویکردهای راهبردی، چابک و نوآورانه دولت تاکید کرد. در‌حالی‌که این همه‌گیری و بحران چندبعدی ناشی از آن، دولت‌ها را مختل کرد، فرصتی را نیز برای بازنگری رویکردهای راهبردی در‌مورد استفاده از ابزارها و داده‌های دیجیتال برای بهبود ارایه خدمات عمومی فراهم کرد. دولت‌ها که هیچ جایگزینی نداشتند، سال‌ها پیشرفت‌های فناوری را در هفته‌ها و ماه‌ها فشرده کردند. استقرار راه‌حل‌های فناوری در مقیاس وسیع، دولت‌ها را قادر ساخت تا در مواقع بحرانی به فعالیت خود ادامه دهند و ارایه به موقع خدمات به شهروندان و مشاغل را تضمین کنند. در مواردی که فناوری‌ها یا داده‌های دیجیتال به‌صورت راهبردی یا موثر مورد استفاده قرار نگرفتند، این بحران شکاف‌ها و چالش‌های تشدید‌شده‌ای را برجسته کرد که دولت‌ها تا به امروز برای رفع آن‌ها تلاش می‌کنند.

     

    نهادینه کردن دولت دیجیتال، با سطوح بلوغ متفاوت

    برای آزادسازی ظرفیت دولت دیجیتال، ایجاد ترتیبات نهادی مناسب، سازوکارهای هماهنگی و ابزارهای سیاستی برای حفظ تحولات بلندمدت مورد‌نیاز و غلبه بر اولویت‌های سیاسی درحال تغییر، بسیار مهم است. چارچوب سیاست دولت دیجیتال OECD 6 بُعد حیاتی برای ایجاد یک دولت دیجیتال را تعیین می‌کند:

    1. طراحی دیجیتال: طراحی سیاست‌هایی برای فعال‌کردن بخش عمومی برای استفاده منسجم از ابزارها و داده‌های دیجیتال هنگام تدوین سیاست‌ها یا تغییر خدمات عمومی.
    2. دادهمحور: توسعه حاکمیت و توانمندسازهای مورد‌نیاز برای دسترسی، اشتراک‌گذاری و استفاده مجدد از داده‌ها در سراسر بخش عمومی.
    3. دولت بهعنوان یک نرمافراز: استقرار بلوک‌های سازنده مشترک مانند دستورالعمل‌ها، ابزارها، داده‌ها، هویت دیجیتال و نرم‌افزار برای پیشبرد یک تغییر منسجم در فرآیندها و خدمات دولتی در سراسر بخش عمومی.
    4. باز بودن بهطور پیشفرض: باز بودن فراتر از انتشار داده‌های باز، از‌جمله تلاش برای تشویق استفاده از فناوری‌ها و داده‌ها برای برقراری ارتباط و تعامل با بازیگران مختلف.
    5. کاربرمحور: قرار‌دادن نیازهای کاربر در هسته طراحی و ارایه سیاست‌ها و خدمات عمومی، از‌جمله از طریق تعامل با کاربران و اندازه‌گیری معیارها برای ارزیابی تاثیر و رضایت.
    6. کنشگری: پیش‌بینی نیازهای کاربران و ارایه‌دهندگان خدمات برای ارایه خدمات دولتی به‌صورت کنشگرانه.

    شاخص دولت دیجیتال OECD (DGI) بلوغ دولت‌ها را در این ابعاد ارزیابی می‌کند (شکل ۱.۱). در این شکل، مشخص است که برخی کشورها در مسیر خود به‌سمت بلوغ دولت دیجیتال، پیشرفت بیشتری نسبت‌به سایرین داشته‌اند و طیف گسترده تحلیل‌های OECD در‌مورد دولت دیجیتال نشان می‌دهد که هر کشور با چالش‌های خاص خود در دستیابی به بلوغ مواجه است.

    نقش رو به رشد هوش مصنوعی در دولت دیجیتال

    سازمان همکاری و توسعه اقتصادی (OECD) یک سیستم هوش مصنوعی را این‌گونه تعریف می‌کند: «یک سیستم مبتنی بر ماشین که برای اهداف صریح یا ضمنی، از ورودی‌هایی که دریافت می‌کند، استنباط می‌کند که چگونه خروجی‌هایی مانند پیش‌بینی‌ها، محتوا، توصیه‌ها یا تصمیماتی را تولید کند که می‌توانند بر محیط‌های فیزیکی یا مجازی تاثیر بگذارند.»

    بحث‌های جهانی هوش مصنوعی عمدتا بر دولت‌ها به‌عنوان تنظیم‌کننده یا سرمایه‌گذار هوش مصنوعی متمرکز است اما فرصت‌های قابل‌توجهی برای دولت به‌عنوان توسعه‌دهنده و کاربر هوش مصنوعی وجود دارد. دولت‌ها نه‌تنها اولویت‌ها، سرمایه‌گذاری‌ها و مقررات ملی را برای هوش مصنوعی تعیین می‌کنند، بلکه به‌طور فزاینده‌ای از آن برای طراحی و اجرای سیاست‌ها و خدمات استفاده می‌کنند. اگرچه در سال‌های اخیر تبلیغات پیرامون هوش مصنوعی افزایش یافته است، دولت‌ها در استفاده از هوش مصنوعی تازه‌کار نیستند. هزاران پروژه هوش مصنوعی دولتی در سراسر جهان در‌حال انجام است.

    درحالی‌که برخی دولت‌ها طیف گسترده‌ای از ابتکارات را برای افزایش ظرفیت خود در استفاده از هوش مصنوعی به‌کار گرفته‌اند، پیاده‌سازی هنوز برای بیشتر آن‌ها یک چالش است. در زمان انتشار DGI، ۷۰ درصد از کشورها از هوش مصنوعی برای بهبود فرآیندهای داخلی دولت استفاده کرده بودند، در‌حالی‌که تنها ۳۳ درصد از هوش مصنوعی برای بهبود طراحی و اجرای سیاست استفاده کرده بودند. اگرچه استفاده از آن در حال افزایش است، استفاده از هوش مصنوعی در دولت هنوز تاثیر تحول‌آفرینی نداشته است.

    ۲- درک ظرفیت تحولآفرین هوش مصنوعی

    هوش مصنوعی یکی از دگرگون‌کننده‌ترین نیروهای قرن بیست‌و‌یکم است. این فناوری با سرعتی بی‌سابقه در‌حال تغییر‌شکل صنایع، اقتصادها، دولت‌ها و جوامع است. اگر دولت‌ها و سایر بازیگران هوش مصنوعی در بهره‌برداری از مزایای هوش مصنوعی و در‌عین‌حال کاهش خطرات آن موفق باشند، کارشناسان و محققان هوش مصنوعی آینده‌ای را تصور می‌کنند که در آن هوش مصنوعی به پیشرفت‌های علمی و پزشکی، مانند کشف درمان‌های جدید سرطان، کمک می‌کند؛ رشد بهره‌وری را از افزایش یک تا هفت درصدی تولید ناخالص داخلی جهانی (GDP) تا سال ۲۰۳۳ به افزایش ۱۰‌برابری در دهه‌های آینده تسریع می‌کند؛ فقر را از بین می‌برد و نابرابری را کاهش می‌دهد و به مقابله با تاثیرات مرتبط با آب‌وهوا و بلایای طبیعی کمک می‌کند.

    باوجود هیاهوی تبلیغاتی، پیشرفت هوش مصنوعی محدود است

    داده‌های رصدخانه سیاست OECD.AI نشان‌دهنده افزایش علاقه به هوش مصنوعی در سال‌های اخیر است؛ برای مثال، شکل ۱.۲ رشد قابل‌توجه سرمایه‌گذاری‌های خطرپذیر در هوش مصنوعی را در طول زمان نشان می‌دهد. انتظار می‌رود GenAI و برخی دیگر از اشکال هوش مصنوعی، مانند ابررایانه‌های هوش مصنوعی و استفاده از هوش مصنوعی برای پشتیبانی و اجرای سیاست‌های حاکمیت هوش مصنوعی، اعتماد، ریسک و امنیت، تنها در دو تا پنج سال به بهره‌وری کامل‌تری برسند.

    اگرچه برخی از کارشناسان هوش مصنوعی، دستاوردهای اقتصادی قابل‌توجهی را از هوش مصنوعی پیش‌بینی می‌کنند، تحقیقات OECD رشد ضعیف‌تری را نشان می‌دهد و رشد بهره‌وری سالانه ناشی از هوش مصنوعی را بین ۰.۲۵ تا ۰.۶ درصد در ۱۰ سال آینده در کشورهایی که بیشترین آمادگی را برای هوش مصنوعی دارند، تخمین می‌زند. تحقیقات نشان می‌دهد که هوش مصنوعی، بهره‌وری فردی کارگران را بهبود می‌بخشد‌ اما شواهدی که این را به دستاوردهای سازمانی و اقتصادی گسترده‌تر مرتبط می‌کند، ضعیف است. این تا حدودی به این دلیل است که برخی از وظایف هنوز نمی‌توانند ازطریق هوش مصنوعی انجام شوند و همه سازمان‌ها یا کارگران آماده پذیرش آن نیستند. برخی شواهد نشان می‌دهد شرکت‌هایی که هوش مصنوعی را اتخاذ می‌کنند، مولدتر هستند و سریع‌تر از شرکت‌هایی که این کار را نمی‌کنند، رشد می‌کنند اما این نباید به‌عنوان علیت تفسیر شود. در‌حال‌حاضر، محدودیت‌ها همچنان پابرجاست. طبق آمار اداره سرشماری ایالات‌متحده، تنها ۵ تا ۶ درصد از کسب‌وکارهای آمریکایی از هوش مصنوعی برای تولید کالا و خدمات استفاده می‌کنند و تنها هفت درصد قصد دارند در ماه‌های آینده از آن استفاده کنند. در یک نظرسنجی جهانی‌تر، تخمین زده می‌شود که تنها ۲۶ درصد از شرکت‌ها قابلیت‌های لازم برای استخراج ارزش واقعی از هوش مصنوعی را دارند و تنها چهار درصد در تولید ارزش قابل‌توجه موفق بوده‌اند.

    فراتر از دستاوردهای اقتصادی، پتانسیل تحول‌آفرین هوش مصنوعی برای دستیابی به نتایج مثبت اجتماعی، نشانه‌هایی از نویدبخش بودن را نشان می‌دهد. با‌این‌حال، تاثیر کامل آن هنوز محقق نشده است؛ به‌عنوان‌مثال، هوش مصنوعی در علم به پیشرفت واقعی در رباتیک، همجوشی هسته‌ای، کشف دارو، تولید آنتی‌بادی و تاخوردگی پروتئین کمک کرده است. با وجود این موفقیت‌های اولیه، بسیاری از کاربردها همچنان محلی یا تجربی هستند و تغییرات سیستمی در مقیاس جهانی هنوز در راه است. سهم هوش مصنوعی در علم تازه آغاز شده و در برخی زمینه‌ها، این فناوری ممکن است کمتر از حد انتظار به موفقیت رسیده باشد؛ برای مثال، برخی دریافتند که هوش مصنوعی در طول همه‌گیری کووید‌۱۹ سهم کمی در تحقیقات داشته است. تاکنون، هوش مصنوعی عمدتا به پیشرفت‌هایی در مجموعه‌ای محدود از علوم طبیعی و فیزیکی کمک کرده است. تحولات مشابه در سایر رشته‌ها، مانند علوم اجتماعی، باوجود انتظارات بالا، پیشرفت کمتری داشته‌اند. به این ترتیب، در‌حالی‌که مزایای اجتماعی هوش مصنوعی در‌حال ظهور است، دامنه کامل پتانسیل تحول‌آفرین آن هنوز در حال آشکار شدن است.

    استفاده از هوش مصنوعی در دولت، زمینهای منحصربهفرد

    دولت‌ها علاوه‌بر مدیریت هوش مصنوعی برای جامعه با تعیین شرایط و مقررات برای استفاده قابل اعتماد از آن، در تلاش‌اند تا این فناوری را برای مدیریت بهتر با هوش مصنوعی ادغام کنند. مشابه بخش خصوصی، استفاده از هوش مصنوعی در دولت مزایای فوق‌العاده‌ای را نوید می‌دهد، در‌حالی‌که خطرات و چالش‌هایی را نیز به همراه دارد. در‌واقع، یک نظرسنجی از ۲۷۷۰ رهبر ارشد در ۱۴ کشور نشان داد که رهبران بخش دولتی دو‌برابر رهبران صنعت، تحول مبتنی بر هوش مصنوعی را در سازمان‌های خود در کوتاه‌مدت پیش‌بینی می‌کنند اما آن‌ها محتاط‌تر و کمتر خوش‌بین بودند که این امر منجر به افزایش بهره‌وری شود. بااین‌حال، این موضوع اخیرا به کانون توجه ادبیات مدیریت عمومی جریان اصلی و بسیاری از دولت‌ها تبدیل شده است. بااین‌حال، استفاده دولت از هوش مصنوعی از بخش خصوصی عقب‌تر است.

    حوزه هوش مصنوعی پیچیده است، به‌سرعت در‌حال پیشرفت است و منحنی یادگیری شیب‌داری برای کارمندان دولت و سیاست‌گذاران دارد. با‌این‌حال، در صورت موفقیت، کاربرد هوش مصنوعی در دولت نویدبخش تاثیر قابل‌توجهی بر اقتصاد و جامعه گسترده‌تر با افزایش کیفیت و نتایج خدمات عمومی، سیاست‌ها و عملیات دولتی است.

    دولت‌ها نفوذ و تاثیر زیادی بر زندگی مردم دارند و وظیفه مراقبت از منافع عمومی را به همراه دارند؛ وظیفه‌ای که فراتر از شرکت‌ها است؛ بنابراین، آن‌ها مسوولیت ویژه‌ای برای استقرار هوش مصنوعی به گونه‌ای دارند که آسیب را به حداقل برساند و رفاه افراد و جوامع را در اولویت قرار دهد. این امر به‌ویژه در‌مورد به‌کارگیری هوش مصنوعی در حوزه‌های حساس سیاست‌گذاری مانند اجرای قانون، کنترل مهاجرت، مزایای رفاهی و پیشگیری از کلاهبرداری صادق است.

    دولت‌ها همچنین با یک ماموریت منحصر‌به‌فرد فعالیت می‌کنند: آن‌ها در خدمت منافع عمومی هستند و ازسوی منابع عمومی تامین مالی می‌شوند. به همین ترتیب، اقدامات آن‌ها –‌به‌ویژه اقدامات مربوط به داده‌ها و فناوری‌های دیجیتال‌- باید هدایت شود.

    زمینهها و مزایای کلیدی هوش مصنوعی در دولت

    فرصت‌ها برای دولت‌ها به‌عنوان توسعه‌دهندگان و کاربران هوش مصنوعی شامل ظرفیت تغییر در ارایه خدمات، سیاست‌گذاری، عملیات داخلی و نظارت است. این یک لحظه محوری برای دولت‌ها در سراسر جهان است. آن‌ها با پیشرفت‌های سریع در فناوری‌های هوش مصنوعی دست‌وپنجه نرم می‌کنند و در‌تلاش‌اند تا از فرصت‌های ارایه‌شده ازسوی هوش مصنوعی برای نوآوری و مدرن‌سازی مدیریت عمومی استفاده کنند.

    پذیرش هوش مصنوعی در دولت، امکانات جدیدی را ایجاد می‌کند. طی سال‌ها تحقیق در‌مورد این موضوع و همکاری با دولت‌ها در سراسر جهان، سه زمینه فرصت مشخص برای استفاده دولت از هوش مصنوعی را شناسایی کرده است:

     بهرهوری با عملیات داخلی کارآمدتر و طراحی سیاست، تصمیمگیری و ارایه خدمات موثرتر: به‌عنوان‌مثال، استفاده از سیستم‌های پیش‌بینی هوش مصنوعی برای برنامه‌ریزی موثرتر سیاست، خودکارسازی فرآیندها برای ارایه خدمات سریع‌تر و افزایش عملکرد با اجازه دادن به کارمندان دولت برای تمرکز کمتر بر وظایف روزمره و بیشتر بر فعالیت‌های حیاتی.

     پاسخگویی سیاستها و خدمات عمومی از طریق رویکردهای طراحی و ارایه بهبود یافته که نیازهای درحال تحول شهروندان و جوامع خاص را بهتر برآورده می‌کنند و همچنین از طریق بهبود سازوکارهای مشارکت مدنی. این شامل ارایه خدمات عمومی شخصی‌سازی‌شده‌تر و پیشگیرانه‌تر می‌شود.

     پاسخگویی با افزایش ظرفیت نظارت و شفافیت؛ برای مثال از طریق نظارت بلادرنگ. این تغییر ممکن است رضایت کلی عمومی را افزایش داده و درک دولت را به‌عنوان نهادی شایسته، منصف و پاسخگو تقویت کند و درنتیجه اعتماد عمومی به ظرفیت دولت برای نوآوری و تحول را تقویت کند.

     

    3- مزایای کلیدی هوش مصنوعی در دولت

    برای هدایت تصمیمات سرمایه‌گذاری، درک مزایای هوش مصنوعی برای کارمندان دولت، به‌ویژه تصمیم‌گیرندگان در سمت‌های رهبری، بسیار مهم است. مطالعه‌ای ازسوی کمیسیون اروپا (EC)، که ۵۷۶ مدیر دولتی را در هفت کشور مورد بررسی قرار داد، نشان داد که مزایای درک‌شده از هوش مصنوعی به‌طور قابل‌توجهی بر پذیرش آن تاثیر می‌گذارد. هوش مصنوعی ظرفیت افزایش تصمیم‌گیری در مراحل مختلف چرخه سیاست‌گذاری را دارد (شکل ۱.۳). بخش‌های زیر مزایای کلیدی استفاده از هوش مصنوعی در دولت را شرح می‌دهند. این مزایا منحصر‌به‌فرد نیستند و در‌واقع مکمل یکدیگر هستند و در چهار مفهوم با هم همپوشانی دارند:

     فرآیندها و خدمات خودکار، ساده و متناسب؛

     تصمیم‌گیری، حس‌گرایی و پیش‌بینی بهتر؛

     پاسخگویی و تشخیص ناهنجاری پیشرفته؛

     و ایجاد فرصت‌ها برای ذینفعان خارجی از طریق هوش مصنوعی به‌عنوان یک مزیت برای همه.

     

    3-1- فرآیندها و خدمات خودکار، ساده و متناسبسازیشده

    اتوماسیون مبتنی بر هوش مصنوعی می‌تواند به‌طور مستقیم به خودکارسازی فرآیندها و خدمات موجود کمک کند، یا به بازطراحی کامل نحوه عملکرد دولت‌ها، چه در عملیات داخلی و چه در خدمات عمومی، کمک کند. دولت‌ها با بهره‌گیری از دارایی‌های عظیم داده، می‌توانند از هوش مصنوعی برای توسعه خدمات متناسب‌سازی‌شده‌ای که دقیقا برای افراد و گروه‌های خاص طراحی شده‌اند، استفاده کنند. این مزایا نه‌تنها دولت را کارآمدتر، موثرتر و پاسخگوتر می‌کند، بلکه می‌تواند با قادر ساختن آن‌ها به صرف زمان بیشتر روی کارهای ارزشمندتر و معنادارتر، کیفیت شغلی و رفاه کارکنان دولت را نیز بهبود بخشد. نشان داده شده است که این امر رفاه کارگران را بهبود می‌بخشد. تقریبا دو‌سوم از کارگرانی که ازسوی OECD مورد بررسی قرار گرفتند، گزارش دادند که هوش مصنوعی لذت آن‌ها از کار را بهبود بخشیده است و مطالعات نشان می‌دهد این امر می‌تواند رفاه کارگران را افزایش دهد. با‌این‌حال، همان‌طور که در ادامه بحث شده است، برخی کاربردهای هوش مصنوعی می‌توانند کیفیت شغلی را کاهش داده و به‌طور بالقوه منجر به جابه‌جایی نیروی کار خدمات عمومی شوند.

     

    3-1-1- خودکارسازی وظایف روزمره و تکراری

    دولت‌ها می‌توانند از هوش مصنوعی برای افزایش کارایی عملیات داخلی و فعالیت‌های ارایه خدمات خود استفاده کنند و زمانی را که مقامات دولتی صرف وظایف یکنواخت می‌کنند، کاهش دهند. معمولا این عملیات داخلی تکراری هستند و به تفکر تحلیلی گسترده یا قضاوت انسانی نیازی ندارند. با خودکارسازی این وظایف، هوش مصنوعی می‌تواند گردش کار را ساده کند، خطاها را کاهش دهد، تخصیص منابع را بهینه کند و منابع انسانی را برای فعالیت‌های پیچیده‌تر و قضاوت‌محور آزاد کند. درنهایت، این امر منجر به ارایه کارآمدتر خدمات عمومی با کیفیت بالاتر می‌شود.

    وظایف تکراری و وقت‌گیر عبارت‌اند از:

     ورود دادهها: وارد کردن دستی داده‌ها به سیستم‌ها و پایگاه‌های داده مختلف.

     پردازش حقوق و دستمزد: محاسبه و پردازش حقوق و مزایای کارکنان.

     سوالات اساسی مشتری: رسیدگی به سوالات روزمره و ارایه اطلاعات به عموم.

     تایید اطلاعات: بررسی و تایید صحت اسناد.

     پردازش فرم: رسیدگی و پردازش فرم‌های مختلف درخواست.

     ایمیل و مکاتبات: مرتب‌سازی، پاسخ‌دهی و مدیریت ایمیل‌ها و مکاتبات رسمی.

    دولت‌ها می‌توانند از انواع سیستم‌های هوش مصنوعی برای این نوع وظایف استفاده کنند، از سیستم‌های ساده مبتنی بر قوانین گرفته تا سیستم‌های پیشرفته‌تر یادگیری ماشین، مانند چت‌بات‌های مجهز به LLM. این سیستم‌ها قابلیت‌های گسترده‌ای دارند، از رسیدگی به سوالات ساده و روتین (هم با شهروندان و هم با کارمندان دولت) گرفته تا تولید محتوای کاملا جدید و سفارشی و بهینه‌سازی تخصیص منابع.

    برای مثال، آرژانتین ازطریق سیستم Prometea مبتنی بر هوش مصنوعی خود، درحال خودکارسازی وظایف تکراری و تسریع پردازش پرونده‌ها در اداره دادگستری است. بااین‌حال، همان‌طور که در ادامه بحث شده است، اتوماسیون مجهز به هوش مصنوعی می‌تواند خطراتی را -در زمینه‌هایی مانند اداره دادگستری- ایجاد کند که دولت‌ها باید آن‌ها را در نظر بگیرند؛ برای مثال، در‌مورد پرومتئا، آرژانتین به‌دنبال محدود‌کردن این خطرات ازطریق کنترل انسانی بر نحوه استفاده از سیستم هوش مصنوعی و خروجی‌های آن است.

    ۳-۱-۲- بهبود بهرهوری در وظایف تحلیلی یا خلاقانه

    هوش مصنوعی از طریق کشف ایده‌های جدید و از طریق ابزارهای جدید کارآمد و موثر برای انجام کار، به بهره‌وری کمک می‌کند. یکی از قابل‌توجه‌ترین مزایای هوش مصنوعی، توانایی آن در کمک به ادارات دولتی برای مدیریت و مدیریت تجزیه و تحلیل و ترکیب اسناد گسترده است. در‌حالی‌که ابزارهای متنوع مبتنی بر هوش مصنوعی ممکن است مفید باشند، LLMها به‌ویژه می‌توانند به‌عنوان دستیاران قدرتمندی برای مقامات دولتی در این زمینه عمل کنند و در وظایفی مانند تحقیق، خلاصه‌سازی و ترکیب محتوا کمک کنند. تحقیقات انجام‌شده با متخصصان دانش در بخش خصوصی نشان داد که استفاده از هوش مصنوعی می‌تواند عملکرد افراد و تیم‌ها را بهبود بخشد. دولت‌ها می‌توانند از هوش مصنوعی برای کاهش حجم کار کارمندان دولت و بهبود دسترسی به اطلاعات برای شهروندان و کارمندان دولت استفاده کنند.

    برخی کاربردهای مرتبط عبارت‌اند از:

     پردازش و دستهبندی اطلاعات متنی: ابزارهای هوش مصنوعی می‌توانند متون گسترده و اسناد بدون ساختار را به‌سرعت و بادقت تجزیه و تحلیل کنند، نکات کلیدی را برجسته کرده و اطلاعات را خلاصه کنند. این امر باعث افزایش کارایی در بخش‌هایی می‌شود که با حجم زیادی از اطلاعات، مانند امور حقوقی و فرآیندهای اداری سروکار دارند. درنتیجه، گردش کار سرعت می‌گیرد و خطر خطای انسانی کاهش می‌یابد و منجر به نتایج دقیق‌تر و قابل‌اعتمادتری در عملیات داخلی و فعالیت‌های ارایه خدمات می‌شود.

     تهیه پیشنویس اسناد و متون حقوقی: سیستم‌های هوش مصنوعی می‌توانند با استفاده از الگوها و قوانین موجود، پیش‌نویس‌های اولیه انواع مختلف اسناد را تولید کنند. این فرآیند به تضمین رعایت استانداردها و در‌عین‌حال صرفه‌جویی در زمان و منابع کمک می‌کند. علاوه‌بر‌این، هوش مصنوعی می‌تواند پیش‌نویس‌های جدید را با قوانین فعلی تطبیق دهد، اختلافات احتمالی را شناسایی کند و خطاهای انسانی را به حداقل برساند. برای تهیه پیش‌نویس گزارش، ابزارهای هوش مصنوعی می‌توانند پیشنهادهای خودکار برای ساختارهای واضح‌تر و مختصرتر ارایه دهند. علاوه‌بر‌این، می‌تواند با خلاصه‌کردن گزارش‌های گسترده در قالب‌های کوتاه‌تر برای انتشار به تصمیم‌گیرندگان یا عموم، ارتباط با آن‌ها را بهبود بخشد.

     درک ورودیهای بدون ساختار: هوش مصنوعی می‌تواند مقادیر زیادی از اطلاعات را از فرآیندهای مشارکتی، بازخورد خدمات عمومی و مشاوره‌ها تجزیه و تحلیل و ترکیب کند و آن‌ها را به توصیه‌های عملی تبدیل کند. می‌تواند موضوعات تکراری را شناسایی کند، نظرات را دسته‌بندی کند، داده‌های پرت را تشخیص دهد، تحلیل احساسات انجام دهد و گزینه‌های سیاستی را بر‌اساس ترجیحات رتبه‌بندی کند. این استفاده می‌تواند به شناسایی مسایل نوظهور، توجه بهتر به نگرانی‌های ذینفعان و پرداختن به تاثیرات بالقوه سیاست‌ها کمک کند.

    مطالعات نشان می‌دهد که سیستم‌های هوش مصنوعی مولد، زمانی را که افراد صرف انجام وظایف می‌کنند، کاهش می‌دهند و درعین‌حال کیفیت خروجی را بهبود می‌بخشند. آن‌ها همچنین نشان می‌دهند که این ابزارها تاثیر بیشتری بر بهره‌وری کارگران کم‌مهارت‌تر، مانند کارمندان جوان، دارند و به آن‌ها اجازه می‌دهند تا با همکاران ارشدتر خود همگام شوند. این می‌تواند با کمک به کارگران در انجام بسیاری از وظایفی که معمولا ازسوی متخصصان موضوعی انجام می‌شود، تاثیر برابرکننده ایجاد کند و باعث افزایش بهره‌وری شود. با‌این‌حال، برخی تحقیقات همچنین نشان می‌دهند هوش مصنوعی می‌تواند به شکاف بیشتر بین کارگران ماهر و کم‌مهارت کمک کند و اگرچه سیستم‌های هوش مصنوعی موجود می‌توانند بهره‌وری کارگران را افزایش دهند اما هنوز نمی‌توانند بسیاری از وظایفی را که انسان‌ها می‌توانند انجام دهند، انجام دهند. تحقیقات بیشتری درمورد این موضوع، ازجمله مزایای خاص هوش مصنوعی و معایب بالقوه آن برای کارمندان دولت، موردنیاز است.

    برای مثال، سازمان امور مالیاتی بریتانیا از هوش مصنوعی برای تهیه پیش‌نویس شرح شغل و تجزیه و تحلیل و ارزیابی صلاحیت درخواست‌های شغلی برای تسریع استخدام استفاده می‌کند. همان‌طور‌که در ادامه بحث شده است، استفاده از هوش مصنوعی اگر به شیوه‌ای قابل‌اعتماد انجام نشود، می‌تواند خطراتی را ایجاد کند.

    هوش مصنوعی همچنین می‌تواند به‌عنوان شتاب‌دهنده‌ای برای خلاقیت و نوآوری در بین کارمندان دولت و نحوه طراحی و اجرای فرآیندهای داخلی و سیاست‌ها و خدمات عمومی ازسوی آن‌ها نقش داشته باشد؛ برای مثال، هوش مصنوعی مولد می‌تواند از کاوش در گزینه‌های سیاستی، شبیه‌سازی سناریوها، تدوین قوانین و نمونه‌سازی خدمات پشتیبانی کند و یک مدیریت عمومی خلاق‌تر و تجربی‌تر را پرورش دهد؛ برای مثال، سرویس ارتباطات دولتی بریتانیا درحال توسعه یک ابزار مکالمه مبتنی بر هوش مصنوعی برای تولید متون پیش‌نویس، برنامه‌ها و ایده‌های استراتژیک است که دستورالعمل‌های ارتباطی و بینش مخاطبان را برای اطمینان از خروجی‌های با کیفیت بالا و مطابق با استانداردها ادغام می‌کند. این ابزار که به‌عنوان یک دستیار مشارکتی طراحی شده است، خلاقیت را افزایش می‌دهد، حجم کار روتین را کاهش می‌دهد و پس از آزمایش موفقیت‌آمیز و اصلاح مکرر مبتنی بر هوش مصنوعی، به‌تدریج در‌حال گسترش است.

    ۳-۱-۳- متناسبسازی خدمات برای رفع نیازهای شخصیسازیشده شهروندان

    هوش مصنوعی می‌تواند به دولت‌ها کمک کند تا نیازها و رفتارهای مردم را بهتر درک کنند و ارایه اطلاعات و خدمات هدفمند و شخصی‌سازی‌شده را در سطح فردی تسهیل کنند. این می‌تواند شامل توسعه پروفایل‌های شخصی‌سازی‌شده شهروندان، تولید و ارایه اطلاعات متناسب و شکل‌دهی به ارایه خدمات بر‌اساس نیازهای منحصر‌به‌فرد باشد. با بهبود پاسخگویی، چنین تلاش‌هایی می‌توانند خدمات را کارآمدتر، موثرتر و شهروندمحورتر کنند که منجر به رضایت بیشتر، نتایج بهتر و رویکردی چابک‌تر و پیشگیرانه‌تر برای رفع نیازهای عمومی می‌شود.

    این امر امکان پاسخ بهتر به نیازهای زیرگروه‌های کاربر، از‌جمله گروه‌های آسیب‌پذیر و محروم، را که ممکن است نیازهای خاص و وابسته به زمینه داشته باشند فراهم می‌کند. استفاده از ابزارهای هوش مصنوعی برای شخصی‌سازی به چندین بخش خدمات عمومی گسترش یافته است که اغلب با ارایه خدمات مبتنی بر رویدادهای زندگی مرتبط هستند، مانند خدماتی که به‌صورت پیشگیرانه برای تولد فرزند، پیگیری‌های تحصیلی جدید یا ازدواج ارایه می‌شوند.

    دولت‌ها همچنین می‌توانند از ظرفیت هوش مصنوعی برای تجزیه و تحلیل مجموعه داده‌های رفتاری گسترده برای درک عمیق‌تر از ناهمگونی فردی استفاده کنند و عوامل شناختی و زمینه‌ای -‌مانند زمان‌بندی، مکان و ترجیحات شخصی- را در طراحی خدمات بگنجانند. این امر امکان مداخلات خدماتی سازگارتر و عادلانه‌تری را فراهم می‌کند که با شرایط منحصربه‌فرد شهروندان همسو هستند و درعین‌حال از استقلال و تصمیم‌گیری آگاهانه محافظت می‌کنند.

    علاوه‌بر بهبود خود خدمات، هوش مصنوعی می‌تواند به بهینه‌سازی ارتباطات درمورد دردسترس‌بودن و درنتیجه، جذب خدمات کمک کند. با استفاده از داده‌های اداری موجود، هوش مصنوعی می‌تواند فرآیندها را با پر کردن (یا حذف) فرم‌ها با اطلاعات شناخته‌شده و متناسب‌سازی سوالات با فرد، ساده کند و زمان و تلاش لازم برای انجام وظایف بوروکراتیک را کاهش دهد. این کار درحال‌حاضر به‌صورت محدود با داده‌های اداری و الگوریتم‌های برنامه‌ریزی‌شده (انسانی) در حوزه برنامه‌های اجتماعی انجام می‌شود. این رویکرد هدفمند می‌تواند به شهروندان کمک کند تا اطلاعات موردنیاز خود را به‌طور کارآمد دریافت کنند و تعاملات با خدمات عمومی ساده و کاربرپسند باشد.

    نمونه‌هایی از این مزیت در عمل شامل طیف گسترده‌ای از چت‌بات‌ها و دستیاران مجازی است که می‌توانند به سوالات منحصربه‌فرد شهروندان با اطلاعات متناسب پاسخ دهند؛ برای مثال، سازمان امور مالیاتی سنگاپور یک چت‌بات عمومی راه‌اندازی کرده که می‌تواند اطلاعات و خدمات متناسب با نیازهای فردی را ارایه دهد؛ برای مثال دیگر، سیستم‌های حمایت اجتماعی از هوش مصنوعی برای اطلاع‌رسانی پیشگیرانه برای ارتقای جذب خدمات در بین افراد باکیفیت استفاده می‌کنند.

    بااین‌حال، توجه به این نکته مهم است که چنین خدماتی اغلب برای تعیین ویژگی‌ها و نیازهای فردی به جمع‌آوری و تجزیه و تحلیل داده‌های زیادی نیاز دارند. دولت‌ها باید چنین جمع‌آوری داده‌ها و استفاده از هوش مصنوعی را به شیوه‌ای قابل اعتماد انجام دهند. در غیر این‌صورت، همان‌طور که در ادامه بحث خواهد شد، این تلاش‌ها خطر نقض آزادی اعمال حقوق بشر، ازجمله ازطریق نقض حریم خصوصی، را به همراه دارد.

    ۳-۱-۴- رویکردهای متناسبسازی برای تقویت خدمات شهری

    هوش مصنوعی همچنین می‌تواند خدمات عمومی را ازطریق فرآیندهای استخدام موثرتر و فراگیرتر و برنامه‌های شخصی‌سازی‌شده برای توسعه مداوم تقویت کند؛ برای مثال، در رابطه با مدیریت منابع انسانی (HRM)، هوش مصنوعی می‌تواند با کمک به یافتن بهترین کاندیداها برای شغل، به دولت‌ها در بهینه‌سازی تصمیمات استخدام کمک کند و با کنترل سوگیری‌های انسانی، شمولیت را بهبود بخشد.

    هوش مصنوعی همچنین می‌تواند کارمندان دولت را توانمند سازد؛ می‌تواند به توسعه یادگیری، افزایش خلق دانش و بهینه‌سازی نرم‌افزار‌های یادگیری برای ارتقای مهارت کارمندان دولت کمک کند. این شامل تدوین استراتژی‌های توسعه مهارت، طراحی و اجرای دوره‌های آموزشی متناسب و اجرای ابزارهایی برای بهبود دسترسی به اطلاعات است. با انجام این کار، هوش مصنوعی می‌تواند به اطمینان از مجهز بودن کارمندان دولت به جدیدترین دانش و مهارت‌های لازم برای برآوردن خواسته‌های درحال تحول نقش‌هایشان کمک کند و مدیریت عمومی پاسخگوتری را تقویت کند.

    برخی کاربردهای مرتبط هوش مصنوعی عبارت‌اند از:

     توسعه مطالب آموزشی برای کارمندان دولت: هوش مصنوعی می‌تواند محتوای آموزشی (مانند ماژول‌ها و مطالب درسی) را از اسناد منبع ایجاد و اطلاعات متنوع را در منابع مؤثر ادغام کند. همچنین می‌تواند دوره‌های یادگیری آنلاین را طراحی، ساختاردهی و مستقر کند. ابزارهای مبتنی بر هوش مصنوعی می‌توانند با دسترسی به اطلاعات جدید، این منابع را به‌طور مداوم به‌روزرسانی و اصلاح کنند و آموزش و توسعه مداوم مهارت نیروی کار دولتی را افزایش دهند.

     شخصیسازی مطالب و مسیرهای یادگیری برای کارمندان دولت: هوش مصنوعی می‌تواند محتوای آموزشی و مسیرهای یادگیری را متناسب با نیازها، ترجیحات و پیشرفت خاص هر کارمند دولت تنظیم کند و یک تجربه یادگیری موثرتر، جذاب‌تر و تطبیقی ​​را تضمین کند. با تجهیز کارآمدتر کارمندان دولت به مهارت‌های مناسب، این شخصی‌سازی همچنین پاسخگویی دولت را افزایش می‌دهد.

     شناسایی و فهرستبندی منابع یادگیری: ابزارهای هوش مصنوعی می‌توانند منابع یادگیری متعدد را شناسایی، توصیف و فهرست‌بندی کنند و آن‌ها را به‌راحتی قابل جست‌وجو و اشتراک‌گذاری سازند و درنتیجه کشف منابع و شناسایی محتوای مرتبط برای زبان‌آموزان را ساده کنند؛ برای مثال، ادغام هوش مصنوعی در نرم‌افزار‌های دیجیتال می‌تواند عملکردهای سازماندهی، فهرست‌بندی و جست‌وجو را بهبود بخشد.

    برای مثال، کمیسیون خدمات عمومی استرالیا (APSC) یک پروژه آزمایشی شش‌هفته‌ای را اجرا کرده است تا ببیند آیا هوش مصنوعی می‌تواند یک دوره یادگیری آنلاین درمورد مهارت‌های دیجیتال برای رهبری را طراحی، ساختاردهی و مستقر کند.

    ۲- تصمیمگیری، درک و پیشبینی بهتر

    کارشناسان هوش مصنوعی، تصمیم‌گیری، درک و پیش‌بینی بهتر را به‌عنوان مهم‌ترین مزایای کلی هوش مصنوعی شناسایی کرده‌اند و اقدامات قوی‌تر و سرمایه‌گذاری‌های بیشتر ازسوی دولت‌ها را برای دستیابی به این حوزه‌ها توصیه می‌کنند. همان‌طور که در ادامه بحث شده است، دولت‌ها باید این مزایا را دنبال کنند و درعین‌حال مراقب باشند که از اتکای بیش‌ازحد به هوش مصنوعی خودداری کنند، زیرا شناسایی نقص در سیستم‌ها می‌تواند دشوار باشد و واگذاری بیش‌ازحد قضاوت انسانی به ماشین‌ها می‌تواند باعث انتشار سیستماتیک خطاها و ایجاد آسیب در دنیای واقعی شود.

    ۳-۲-۱- تقویت تصمیمگیری و درک زمان حال

    با ارایه بینش‌های عملی و مبتنی بر داده، هوش مصنوعی می‌تواند به دولت‌ها کمک کند تا اثربخشی و کارایی اقدامات هدفمند را بهبود بخشند، منابع را تخصیص دهند و مشکلات و راه‌حل‌های سیاستی را شناسایی کنند؛ بنابراین، دولت‌ها می‌توانند به‌طور موثرتری به مسایل نوظهور پاسخ دهند، می‌توانند توسعه آگاهانه سیاست‌ها را تضمین کنند، پاسخگویی و مسوولیت‌پذیری کلی خود را افزایش دهند و در نهایت، رفاه اجتماعی را ارتقا دهند.

    برخی از روش‌های خاصی که هوش مصنوعی می‌تواند در طول چرخه سیاست‌گذاری مفید باشد، عبارت‌اند از:

     تنظیم دستورکار و تدوین سیاست: هوش مصنوعی می‌تواند با چارچوب‌بندی مشکلات اجتماعی به شیوه‌هایی که آن‌ها را به نیازهای واقعی اجتماعی پاسخگوتر می‌کند، نقش محوری در جلب توجه سیاست‌گذاران و در فرآیند تنظیم دستورکار ایفا کند؛ به‌عنوان مثال، هوش مصنوعی دولت‌ها را قادر می‌سازد تا موضوعات نوظهور را در زمان واقعی از مجموعه داده‌های گسترده و نماینده رصد و درک کنند و دقت و سرعت تنظیم دستورکار را افزایش دهند. با تشخیص دقیق‌تر و سریع‌تر چالش‌های بالقوه، هوش مصنوعی پاسخ‌های سریع‌تر به سیاست‌ها را قبل از تشدید مسایل تسهیل می‌کند. هوش مصنوعی ازطریق تدوین سیاست، می‌تواند با ارایه داده‌ها و اطلاعات مهم درمورد مسایل، بر فرآیند تصمیم‌گیری تاثیر بگذارد. تجزیه و تحلیل مبتنی بر هوش مصنوعی می‌تواند بینش‌هایی را ارایه دهد که نه‌تنها تاثیرات احتمالی سیاست‌ها را تخمین می‌زند، بلکه جمعیت‌های هدف را نیز شناسایی کرده و تشخیص‌های اقتصادی و اجتماعی را انجام می‌دهد و به سیاست‌گذاران در تصمیم‌گیری آگاهانه کمک می‌کند. هوش مصنوعی همچنین می‌تواند در تدوین گزینه‌های سیاستی کمک کند و ارزیابی عمیق‌تری از سیاست‌های پیشین ارایه دهد.

     اجرای سیاست: با ورود سیاست‌ها به مرحله اجرا، اتوماسیون مبتنی بر هوش مصنوعی، پردازش سریع داده‌ها و تجزیه و تحلیل بلادرنگ، کیفیت، سرعت و کارایی اجرای سیاست را افزایش می‌دهد. تجزیه و تحلیل هوش مصنوعی به‌طور قابل‌توجهی کسب داده‌ها و اطلاعات را تقویت و تسریع و از بهبودهای مستمر پشتیبانی می‌کند. تجزیه و تحلیل داده‌های بلادرنگ می‌تواند پیشرفت‌های گسترده را تسهیل کند و درنهایت ارایه خدمات را در طول اجرای سیاست بهبود بخشد.

     نظارت و ارزیابی: هوش مصنوعی می‌تواند مداخلات سیاستی را در زمان واقعی رصد کند، بینش بهتری در مورد فرآیند سیاست‌گذاری ارایه دهد، ارزیابی داده‌های به‌موقع و دقیق از مداخلات سیاستی را تسهیل کند و در صورت نیاز، تنظیمات سریع سیاستی را امکان‌پذیر سازد.

    داده‌های در دسترس و افزایش قدرت محاسباتی، در برخی موارد، در تصمیم‌گیری، به هوش مصنوعی مزیت رقابتی نسبت به انسان می‌دهد؛ برای مثال، LLMها می‌توانند از استدلال فردی پشتیبانی کنند و شواهد، مزایای تصمیم‌گیری با کمک هوش مصنوعی را در دنیای واقعی نشان می‌دهند. سیستم‌های هوش مصنوعی می‌توانند با کاهش اشتباهات استدلالی و خطاهای شناختی، تصمیم‌گیری را بهبود بخشند و به انسان‌ها کمک کنند تا «نویز» -‌تنوع ناخواسته در تصمیم‌گیری انسان‌- و تاثیرات نامربوطی را که می‌تواند منجر به تصمیمات متناقض و نادرست شود، فیلتر کنند. پتانسیل سیستم‌های هوش مصنوعی برای تصمیم‌گیری مبتنی بر داده، منجر به پذیرش آن در طیف وسیعی از بخش‌ها، از‌جمله در بخش دولتی، می‌شود. هوش مصنوعی می‌تواند عناصری را که قضاوت انسان را در کاربردهای مختلف در دولت تحریف می‌کنند، شناسایی و برطرف کند.

    علاوه‌بر این، نویز ممکن است بینش‌های کلیدی در مورد رفتار انسان را مبهم کند، که هوش مصنوعی می‌تواند آن‌ها را کشف و کمی و به سیاست‌گذاری دقیق‌تر کمک کند. الگوریتم‌ها می‌توانند با تضمین ثبات در نتایج، صرف‌نظر از عوامل زمینه‌ای، مانند خلق‌وخو یا زمان روز، نویز را به‌طور قابل‌توجهی کاهش دهند. هوش مصنوعی با کشف الگوهای رفتاری که قبلا کشف نشده یا مبهم بوده‌اند، می‌تواند به سیاست‌گذاران اجازه دهد تا روندهای سیستمی و تناقضات تصمیم‌گیری را بهتر درک کنند. اگرچه حذف نویز همه اشتباهات یا خطاها را برطرف نمی‌کند، قابلیت اطمینان را افزایش می‌دهد و اختلافات خودسرانه در تصمیم‌گیری‌ها را در بین عملکردهای دولتی مانند اداره دادگستری و ارایه خدمات عمومی کاهش می‌دهد.

    با جا افتادن بیشتر هوش مصنوعی در مدیریت عمومی، درک فرآیندهای روانشناختی و شناختی که تعاملات انسان با این فناوری‌ها را شکل می‌دهند، به‌طور فزاینده‌ای اهمیت می‌یابد. مدیریت عمومی رفتاری می‌تواند بینش‌های ارزشمند بیشتری در‌مورد چالش‌هایی که ممکن است پیش بیاید، ارایه دهد و استراتژی‌هایی را برای کاهش آن‌ها و بهبود حکمرانی و تصمیم‌گیری ارایه دهد. نمونه‌ای از این مورد، استفاده دولت‌ها از Polis، یک ابزار مشارکت مدنی متن‌باز برای درک دیدگاه‌های شهروندان و همچنین زمینه‌های اجماع و اختلاف‌نظر درمورد مسایل مربوط به سیاست عمومی است. در زمینه مدیریت مالی عمومی، کره dBrain+ را توسعه داده است، یک سیستم اطلاعاتی که از هوش مصنوعی برای تجزیه و تحلیل داده‌های اقتصادی، مالی و پولی در زمان واقعی برای بهینه‌سازی ارزیابی ریسک و تصمیم‌گیری در امور مالی عمومی استفاده می‌کند.

    ۳-۲-۲- پیشبینی بهتر آینده

    سیستم‌های هوش مصنوعی می‌توانند حجم زیادی از داده‌ها را از منابع متعدد، ازجمله داده‌های بدون ساختار، پردازش کنند و الگوهای پیچیده و سیگنال‌های ضعیف -نشانه‌های اولیه تغییرات، تهدیدها و فرصت‌های نوظهور بالقوه- را که با روش‌های موجود به‌راحتی قابل تشخیص نیستند، شناسایی کنند. این امر می‌تواند دقت و به‌موقع بودن پیش‌بینی‌ها را افزایش دهد و برای سایر فعالیت‌های آینده‌نگری استراتژیک بسیار مفید باشد. تجزیه و تحلیل و پیش‌بینی پیش‌بینی هوش مصنوعی در دولت شامل استفاده از الگوریتم‌ها برای پیش‌بینی روندها و خطرات آینده است. این روش می‌تواند به‌طور گسترده در حوزه‌های مختلف، مانند پیش‌بینی نتایج اقتصاد کلان و مالی به کار گرفته شود.

    با ارایه بینش‌های دقیق و به‌موقع آینده‌نگر، هوش مصنوعی تصمیم‌گیری، تخصیص منابع و اثربخشی کلی عملیات دولت را افزایش می‌دهد. برخی از کاربردهای مرتبط هوش مصنوعی عبارت‌اند از:

     پیشبینی نیازهای خدمات آینده: هوش مصنوعی ظرفیت مهمی در تولید تجزیه و تحلیل و پیش‌بینی پیش‌بینی‌کننده دارد و به خدمات عمومی اجازه می‌دهد نیازها را پیش‌بینی کرده و پیشگیرانه عمل کنند. هوش مصنوعی می‌تواند با امکان تجزیه و تحلیل داده‌ها و روندهای تاریخی، به پیش‌بینی نیازهای خدماتی آینده، بهینه‌سازی تخصیص منابع و افزایش پاسخگویی در حوزه‌های مختلف سیاست‌گذاری کمک کند.

     پیشبینی نظارتی: تنظیم‌کنندگان می‌توانند از هوش مصنوعی برای کشف روندها و تغییرات نوظهور در صنایع مختلف استفاده کنند تا به‌طور پیشگیرانه واکنش‌های نظارتی را برنامه‌ریزی کنند. با نظارت و تجزیه و تحلیل مداوم داده‌ها از منابع مختلف، مانند گزارش‌های بازار، رسانه‌های اجتماعی و مقالات خبری، هوش مصنوعی می‌تواند تحولات جدید و پیشرفت‌های فناوری را که ممکن است بر چشم‌اندازهای نظارتی تاثیر بگذارند، شناسایی کند.

    مدیریت ریسک بلایا: هوش مصنوعی همچنین می‌تواند با تجزیه و تحلیل داده‌های تاریخی و روندهای فعلی، به پیش‌بینی بلایای طبیعی کمک کند؛ برای مثال، سیستم‌های هوش مصنوعی می‌توانند تصاویر ماهواره‌ای و سایر داده‌ها را برای پیش‌بینی احتمال بلایای طبیعی مانند آتش‌سوزی‌های جنگلی و زلزله تجزیه و تحلیل کنند و اقدامات پیشگیرانه‌ای را برای به حداقل رساندن خسارات و افزایش ایمنی عمومی انجام دهند. سیستم‌های هوش مصنوعی می‌توانند هشدارهای اولیه و اطلاعات مفیدی را ارایه دهند تا به دولت‌ها کمک کنند تا به‌سرعت به چنین رویدادهایی پاسخ دهند و اثرات آن‌ها را کاهش دهند.

     پیشبینی خطرات فساد و کلاهبرداری: سیستم‌های پیش‌بینی هوش مصنوعی به فعالان درستکاری کمک کرده تا پرونده‌ها را برای بررسی بیشتر ازسوی انسان اولویت‌بندی کنند. اگرچه انتقال این رویکردها از تحقیقات به دولت‌ها هنوز محدود است، به‌طور پیوسته در‌حال رشد است؛ به‌عنوان مثال، سیستم‌های هوش مصنوعی می‌توانند برای اولویت‌بندی پرونده‌های پرخطر و ساده‌سازی فرآیندهای حسابرسی استفاده شوند. آن‌ها همچنین می‌توانند با ارایه سیستم‌های هشدار اولیه که فساد عمومی را بر‌اساس داده‌هایی مانند عوامل اقتصادی و سیاسی پیش‌بینی می‌کنند، از هدف‌گیری سیاست‌های ضد فساد پشتیبانی کنند. تکنیک‌های پیش‌بینی همچنین برای چندین فعالیت پاسخگویی و نظارت دولتی مبتنی بر هوش مصنوعی، مانند تشخیص کلاهبرداری مبتنی بر ریسک، کلیدی هستند، همان‌طور که در ادامه بیشتر مورد بحث قرار می‌گیرد.

    به‌عنوان نمونه‌ای از پیش‌بینی نیازهای خدمات عمومی آینده، سیستم PrevOcupAI پرتغال قصد دارد بیماری‌های مرتبط با کار و عوامل خطر مرتبط را در مدیریت عمومی پیش‌بینی کند تا اختلالات را به حداقل برساند.

    ۳-۲-۳- بهبود مدیریت اطلاعات و دسترسی

    داده‌های قوی و باکیفیت، پیش‌نیاز اساسی برای بهره‌مندی از مزایای هوش مصنوعی است. هوش مصنوعی می‌تواند به حداکثر رساندن کیفیت و سودمندی داده‌ها و همچنین توانایی انسان‌ها و ماشین‌ها در پردازش و تجزیه و تحلیل آن‌ها کمک کند؛ برای مثال، سیستم‌های هوش مصنوعی اشکال جدیدی از جمع‌آوری داده‌ها، از‌جمله تشخیص و شناسایی خودکار موارد در تصاویر، ضبط‌های صوتی یا ویدیو را امکان‌پذیر می‌کنند. قابلیت‌ها و رواج دستگاه‌های حسگر مجهز به هوش مصنوعی به سرعت پیشرفت کرده است و امکان رونویسی خودکار گفتار، تشخیص حرکت، تشخیص تصویر زنده و طیف گسترده‌ای از کارهایی را که قبلا به نیروی انسانی نیاز داشتند، فراهم می‌کند. هوش مصنوعی همچنین می‌تواند نحوه ذخیره، انتشار و کاربرد اطلاعات را بهبود بخشد. این امر به‌ویژه با ادغام هوش مصنوعی در سیستم‌های مدیریت دانش قابل مشاهده است.

    بهبود نحوه مدیریت اطلاعات در داخل دولت‌ها همچنین می‌تواند به دولت‌ها در ارایه اطلاعات و داده‌های باز به عموم کمک کند. استفاده از هوش مصنوعی می‌تواند به‌حداقل‌رساندن خطاها در مدیریت داده‌ها، مانند کاهش تلاش‌های دستی، کمک کند و هنگامی که در ترکیب با فناوری‌های افزایش حریم خصوصی (PETs) استفاده می‌شود، می‌تواند به افزایش حریم خصوصی و حفاظت از داده‌ها و اطلاعات شخصی حساس کمک کند. این به‌نوبه خود، امکان انتشار گسترده‌تر و دسترسی به داده‌های باز را فراهم می‌کند؛ برای مثال، در اداره دادگستری، یک موتور ناشناس‌سازی مبتنی بر هوش مصنوعی می‌تواند به‌طور خودکار داده‌های شخصی را در تصمیمات دادگاه شناسایی و محافظت و آن‌ها را برای انتشار عمومی به‌عنوان بخشی از یک ابتکار داده باز آماده کند.

    دستیاران مجازی داخلی دولت برای کارمندان دولت نمونه خوبی هستند؛ به‌طوری‌که Albert فرانسه و Caddy بریتانیا انبوهی از اطلاعات تاریخی و بین دولتی را در اختیار کارمندان دولت قرار می‌دهند تا در تصمیم‌گیری‌ها به آن‌ها کمک کرده و به سوالات شهروندان پاسخ دهند.

    ۳-۳- افزایش پاسخگویی و تشخیص ناهنجاری

    یکی از قدیمی‌ترین کاربردهای هوش مصنوعی در دولت، تشخیص ناهنجاری‌های موجود، مانند کلاهبرداری، یا پیش‌بینی خطرات یکپارچگی آینده است، که در‌نتیجه پاسخگویی و یکپارچگی را در برنامه‌های عمومی افزایش می‌دهد. در این استفاده از هوش مصنوعی باید دقت بیشتری به عمل آید تا از نتایج احتمالی مخرب در نتایج جلوگیری شود.

    ۳-۳-۱- تشخیص تراکنشهای نامناسب و ارزیابی خطرات یکپارچگی

    چنین فعالیت‌هایی در انواع عملکردهای دولتی، از‌جمله تدارکات عمومی، اداره مالیات و مدیریت مالی عمومی، رایج است. کلاهبرداری و پرداخت‌های نامناسب در برنامه‌های دولتی می‌توانند منابع قابل‌توجهی از نشت مالی باشند؛ برای مثال، تنها در ایالات‌متحده، دولت فدرال سالانه حدود ۲۳۳ تا ۵۲۱ میلیارد دلار آمریکا را به‌دلیل کلاهبرداری از دست می‌دهد.

    الگوریتم‌های یادگیری ماشین به‌ویژه در تشخیص الگو موثر هستند، زیرا تجزیه و تحلیل مجموعه داده‌های بزرگ را امکان‌پذیر می‌کنند و داده‌های پرت، روابط پنهان (مثلا نشان‌دهنده تبانی) و سایر ناهنجاری‌هایی را که به بررسی بیشتر انسان نیاز دارند، تشخیص می‌دهند. بدون ظرفیت تجزیه و تحلیل داده‌ها در مقیاس بزرگ یا قابلیت شناسایی الگوهای پنهان، چنین بی‌نظمی‌هایی ممکن است بدون هوش مصنوعی به‌طور‌کلی نادیده گرفته شوند. این استفاده از هوش مصنوعی می‌تواند توانایی سازمان‌های دولتی را در حفظ صداقت و پاسخگویی افزایش دهد؛ برای مثال، سازمان امور مالیاتی فرانسه از هوش مصنوعی برای تجزیه و تحلیل عکس‌های هوایی و شناسایی املاک اعلام‌نشده استفاده می‌کند.

    دولت‌ها می‌توانند از هوش مصنوعی برای شناسایی، ارزیابی، پیش‌بینی و پاسخ بهتر به خطرات احتمالی صداقت استفاده کنند و مدیریت بهتر، کاهش و مداخلات به‌موقع را ممکن سازند؛ برای مثال، در انطباق با مقررات، بازرسان به‌طور فزاینده‌ای از هوش مصنوعی برای ارزیابی ریسک ناشی از اپراتورهای خصوصی استفاده می‌کنند. این امر هدف‌گیری بازرسی‌ها، حفاظت از منافع عمومی و استفاده کارآمد از منابع را بهبود می‌بخشد. هوش مصنوعی با تشخیص الگوهایی که نشان‌دهنده عدم انطباق بالقوه هستند، به بازرسان کمک و امکان ارزیابی دقیق‌تر ریسک را فراهم می‌کند. این استفاده از هوش مصنوعی نه‌تنها بازرسی‌ها را ساده می‌کند، بلکه با اطمینان از این‌که منابع به جایی که بیشتر مورد‌نیاز هستند هدایت می‌شوند، اثربخشی کلی چارچوب‌های نظارتی را نیز افزایش می‌دهد.

    ۳-۳-۲- توانمندسازی بازیگران غیردولتی برای درک و تعامل با دولت و ارتقای پاسخگویی

    دولت‌ها می‌توانند از هوش مصنوعی برای شفافیت بیشتر و ایجاد اشکال و کانال‌های جدید تعامل بین شهروندان، سازمان‌های جامعه مدنی (CSO) و نهادهای عمومی استفاده کنند. در‌واقع، کارشناسان هوش مصنوعی معتقدند که توانمندسازی شهروندان، سازمان‌های جامعه مدنی و شرکای اجتماعی (به‌عنوان‌مثال اتحادیه‌های کارگری) یکی از ۱۰ مزیت مهم هوش مصنوعی است. این امر با شفافیت دولت و استفاده از هوش مصنوعی پشتیبانی می‌شود. این مزایا عبارت‌اند از:

     ارایه ابزارهای مبتنی بر هوش مصنوعی که مستقیما از داده‌های دولتی باز (OGD) برای کمک به شهروندان در جهت‌یابی و درک فرآیندها و اقدامات دولت استفاده می‌کنند.

     امکان نظارت و بررسی دقیق عملیات دولت ازسوی اشخاص ثالث ازطریق سازمان‌های جامعه مدنی و سایر بازیگران غیردولتی.

     فراهم‌کردن فرصت‌ها و کانال‌های تعامل که در آن مردم می‌توانند بازخورد ارایه دهند و مسایل بالقوه مربوط به عملکرد و تصمیمات دولت را مطرح کنند.

    اگر این استفاده از هوش مصنوعی به‌خوبی اجرا شود، پتانسیل ارتقای پاسخگویی و صداقت عمومی، تقویت سیاست‌گذاری و افزایش اعتماد شهروندان به دولت را دارد.

     

    3-4- فراهم کردن فرصتها برای ذینفعان خارجی از طریق هوش مصنوعی بهعنوان یک مزیت برای همه

    آخرین مزیت استفاده از هوش مصنوعی در دولت، ایجاد فرصت‌های جدید برای ذینفعان خارجی، مانند مشاغل و شهروندان، با فراهم‌کردن دسترسی آن‌ها به سیستم‌های هوش مصنوعی توسعه‌یافته ازطریق دولت است. این مزیت هوش مصنوعی ممکن است به‌اندازه سایر مزایا به‌طور مستقیم در فعالیت‌های مستقیم دولت قابل مشاهده نباشد. اما این پتانسیل را دارد که از‌طریق افزایش اعتماد به دولت، شهروندان آگاه‌تر و ماهرتر یا حتی رشد اقتصادی، حاکمیت عمومی را بهبود بخشد. کشورها برنامه‌های OGD را نه‌تنها برای ارتقای شفافیت و پاسخگویی، بلکه برای ارتقای کارآفرینی، رشد اقتصادی و ایجاد ارزشی که ممکن است لزوما در شروع آن‌ها درک یا پیش‌بینی نشده باشد، اجرا کرده‌اند؛ برای مثال، داده‌های تصاویر ماهواره‌ای لندست که از سال ۲۰۰۸ ازسوی سرویس زمین‌شناسی ایالات‌متحده به‌صورت رایگان منتشر شده‌اند، اکنون سالانه بیش از ۲۵میلیارد دلار ارزش اقتصادی دارند. هنگامی که جنبش OGD در اواخر دهه ۲۰۰۰ و اوایل دهه ۲۰۱۰ آغاز شد، کاملا درک نشده بود که داده‌های در دسترس، یک دهه بعد به‌عنوان منابع عظیمی برای آموزش سیستم‌های هوش مصنوعی به کار گرفته خواهند شد.

    ماهیت هوش مصنوعی کاملا متفاوت از داده‌هاست، زیرا محصول جانبی طبیعی مجموعه‌ای از عملکردها و فعالیت‌های موجود نیست و نمی‌تواند به‌عنوان ورودی خام برای سایر فرآیندها عمل کند. (برای مثال، داده‌ها برای هوش مصنوعی با سوخت، برق یا آب آشامیدنی مقایسه شده‌اند). با‌این‌حال، استفاده دولت‌ها از هوش مصنوعی این ظرفیت را دارد که با توانمندسازی ذینفعان برای افزایش قابلیت‌های خود و دسترسی به اطلاعات برای استخراج ارزش جدید، منافع عمومی ایجاد کند.

    برخلاف سایر کاربردها -که در آن‌ها هوش مصنوعی تعاملات بین دولت و شهروندان را تسهیل می‌کند یا ارایه و دسترسی به اطلاعات را بهبود می‌بخشد- برخی از کاربردهای خاص هوش مصنوعی در حکومتداری عمومی می‌تواند قابلیت‌های این بازیگران را افزایش دهد و آن‌ها را قادر سازد تا به‌طور موثرتری به ماموریت‌ها و اهداف خود دست یابند؛ برای مثال، دولت هند سیستم‌های هوش مصنوعی را در دسترس کشاورزان قرار داده است تا به آن‌ها در تضمین سلامت محصولات و کاهش چالش‌های مربوط به آفات کمک کند. نمونه دیگر، طرح توسعه FAIR Forward – هوش مصنوعی برای همه آلمان است که از ایجاد باز و استفاده مسوولانه از سیستم‌های هوش مصنوعی در زمینه‌هایی مانند کشاورزی، حفاظت از آب‌وهوا و مشارکت شهروندان پشتیبانی می‌کند. چنین رویکردهایی ممکن است به‌ویژه در بازارهایی که هنوز ازسوی راه‌حل‌های بخش خصوصی ارایه نمی‌شوند یا جذابیت کمی برای آن‌ها وجود دارد، مفید باشند. دولت‌ها ممکن است منابع لازم برای سرمایه‌گذاری در زمینه‌های کمترکشف‌شده را داشته باشند و بتوانند اولین گام‌ها را برای ایجاد بازارهای جدید بردارند و در جایی که دیگران ممکن است آماده یا مایل به آن نباشند، ریسک کنند.

    اگر دولت‌ها دسترسی به توانمندسازهای هوش مصنوعی، مانند زیرساخت‌های دیجیتال به‌شکل قدرت محاسباتی را فراهم کنند، ظرفیت فرصت‌های خارجی مثبت بیشتر تقویت می‌شود. در برخی موارد، این توانمندسازها ممکن است از قبل برای استفاده دولت وجود داشته باشند و فقط نیاز به برخی تنظیمات و مقیاس‌بندی دارند تا در دسترس مخاطبان گسترده‌تری قرار گیرند. در موارد دیگر، توانمندسازهایی که بازیگران خارجی را هدف قرار می‌دهند، می‌توانند توسعه یافته و عرضه شوند. این می‌تواند ارزش بالقوه هوش مصنوعی را دموکراتیک کند.

    نهادهای غیردولتی نیز می‌توانند در ایجاد و استقرار ابزارهای هوش مصنوعی شرکت کنند و نقش‌های اصلی را در تقویت مشارکت مبتنی بر فناوری ایفا کنند.

    ۴- خطرات خاص استفاده از هوش مصنوعی در دولت

    پذیرش جهانی هوش مصنوعی در همه بخش‌ها، سوالاتی را در مورد اعتماد، انصاف، حریم خصوصی، ایمنی و پاسخگویی و موارد دیگر مطرح می‌کند. درنظرگرفتن این مسایل و مدیریت خطرات هوش مصنوعی می‌تواند بر پذیرش آن و تحقق مزایای آن تاثیر بگذارد. هوش مصنوعی صدها خطر را ایجاد می‌کند و کارشناسان برخی از مهم‌ترین آن‌ها را برای جامعه به شرح زیر شناسایی می‌کنند:

     اگر سیستم‌های هوش مصنوعی با داده‌های ناکافی یا تحریف‌شده پشتیبانی شوند، پیامدهای نامطلوب احتمالی برای برخی گروه‌ها یا افراد وجود دارد.

     سیستم‌های هوش مصنوعی فاقد شفافیت و قابلیت توضیح کافی، پاسخگویی را از بین می‌برند.

     برخی کاربردهای هوش مصنوعی، نگرانی‌هایی را درمورد حفاظت از داده‌ها، حریم خصوصی و نظارت ایجاد می‌کنند.

     هوش مصنوعی می‌تواند تهدیدهای سایبری پیچیده‌تر را تسهیل کند.

     حوادث و فجایع جزیی تا جدی هوش مصنوعی می‌تواند در سیستم‌های حیاتی رخ دهد.

     هوش مصنوعی می‌تواند به اختلالات بازار کار کمک کند.

     قدرت محاسباتی هوش مصنوعی به مصرف انرژی بسیار قابل‌توجهی نیاز دارد.

    این‌ها مسایل پیچیده‌ای هستند که ازسوی دولت‌ها، شرکت‌ها، سازمان‌های جامعه مدنی و سایر ذینفعان مربوطه درحال بررسی هستند. تلاش‌هایی مانند تصویب قانون هوش مصنوعی اتحادیه اروپا و انواع ابتکارات مدیریتی در سطح ملی، به نشان دادن چگونگی ایفای نقش فعال دولت‌ها در مدیریت هوش مصنوعی برای جامعه کمک می‌کند.

    شاید همه خطرات هوش مصنوعی بتوانند به نوعی دولت‌ها را درگیر کنند، مانند لزوم فرآیندهای حاکمیتی یا اقدامات کاهشی. با‌این‌حال، زیرمجموعه محدودتری از خطرات برای سیاست‌گذاران و کارمندان دولت، در‌حالی‌که آن‌ها استفاده راهبردی و مسوولانه از هوش مصنوعی در دولت را دنبال می‌کنند، بیشترین اهمیت را دارد. همان‌طور که در بالا ذکر شد، دولت‌ها تاثیر بسیار زیادی بر زندگی مردم دارند؛ بنابراین استفاده آن‌ها از هوش مصنوعی می‌تواند تاثیر بیشتری بر عموم مردم از نظر مثبت و منفی داشته باشد؛ بنابراین، انتظارات پاسخگویی برای استفاده دولت از هوش مصنوعی بیشتر است. این امر را می‌توان به‌صراحت در قانون هوش مصنوعی اتحادیه اروپا مشاهده کرد که بسیاری از موارد استفاده هوش مصنوعی در بخش دولتی را به‌عنوان «پرخطر» و برخی را به‌عنوان «خطر غیرقابل قبول» طبقه‌بندی می‌کند و بنابراین در اتحادیه اروپا ممنوع است. ایالات‌متحده رویکرد متفاوتی اتخاذ می‌کند و برخی از موارد استفاده را «پرتاثیر» می‌داند و در‌نتیجه شیوه‌های مدیریت ریسک خاصی را الزامی می‌کند. قانون اساسی کره در‌مورد توسعه هوش مصنوعی و ایجاد بنیاد اعتماد، که در ژانویه ۲۰۲۶ لازم‌الاجرا خواهد شد و در‌مورد سازمان‌هایی که در بازار کره در‌حال توسعه یا استفاده از هوش مصنوعی هستند، اعمال می‌شود، به‌طور مشابه برخی از کاربردها را به‌عنوان «تاثیر بالا» تعیین می‌کند، در‌نتیجه نیاز به اقدامات پیشرفته‌تری برای تضمین ایمنی و قابلیت اطمینان هوش مصنوعی دارد. قانون اساسی هوش مصنوعی همچنین شامل یک عنوان جداگانه برای هوش مصنوعی مولد است که شامل الزامات خاص شفافیت و افشا می‌شود.

    دولت‌ها در تلاش برای توسعه و استفاده از هوش مصنوعی، با خطراتی مواجه هستند که شامل خطرات و تهدیدهای بالقوه‌ای می‌شود که می‌تواند مشکلات جدی برای افراد و جامعه ایجاد کند. این موارد به‌طور بالقوه اعتماد عمومی، مشروعیت استفاده از هوش مصنوعی ازسوی دولت و حتی ارزش‌های دموکراتیک را تضعیف می‌کند. برای پرداختن به این نگرانی‌ها، شناسایی و مدیریت این خطرات، در‌نظر‌گرفتن چگونگی تاثیر متفاوت سیستم‌های هوش مصنوعی بر شهروندان یا جمعیت‌های حاشیه‌نشین، کمک به تضمین توزیع عادلانه مزایای هوش مصنوعی و کاهش آسیب‌های احتمالی، مهم است. بررسی مداوم خطرات بالقوه مهم است، زیرا خطرات شناخته‌شده می‌توانند تکامل یابند و خطرات جدیدی پدیدار شوند، ازجمله مواردی که قبلا خارج از قلمرو امکان در نظر گرفته می‌شدند.

    این گزارش پنج نوع کلی از خطرات برای استفاده از هوش مصنوعی در دولت را که در زیر ارایه شده است، شناسایی می‌کند. فراتر از دست‌وپنجه نرم کردن با این خطرات، دولت‌ها هنگام تلاش برای توسعه و استفاده از هوش مصنوعی با تعدادی از چالش‌های اجرایی نیز روبه‌رو هستند. این چالش‌های اجرایی در بخش ۳ مورد بحث قرار گرفته‌اند.

     ریسکهای اخلاقی: این موارد شامل کاربردهای هوش مصنوعی است که اعمال آزادانه حقوق و آزادی‌های بشر، از‌جمله حریم خصوصی، را تضعیف می‌کند و به‌طور بالقوه ارزش‌های انسان‌محور را عمدا یا سهوا نقض می‌کند. الگوریتم‌های هوش مصنوعی می‌توانند از‌طریق الگوریتم‌های مغرضانه و رفتارهای غیراخلاقی مانند نظارت تهاجمی، خطرات اخلاقی را از قلمرو دیجیتال به دنیای فیزیکی وارد کنند. نگرانی‌های کلیدی شامل تهدیدهایی برای اعتماد، انصاف، آزادی، کرامت، استقلال فردی و حقوق کار است.

     ریسکهای عملیاتی: این موارد شامل شکست‌های فنی و عملیاتی است که ممکن است به‌دلیل تهدید‌های سایبری، پیامدهای ناخواسته، توهمات، خطاهای سیستماتیک و اتکای بیش‌از‌حد به سیستم‌های هوش مصنوعی، بر حریم خصوصی داده‌ها، کیفیت نتایج هوش مصنوعی و عملیات داخلی دولت تاثیر بگذارد.

     ریسکهای محرومیت: این خطرات مربوط به شکاف‌هایی است که زمانی ایجاد می‌شوند که شهروندان بدون دسترسی به فناوری یا سواد دیجیتال، ممکن است عقب بمانند و نتوانند از پیشرفت‌های هوش مصنوعی در خدمات عمومی بهره‌مند شوند.

    ریسک‌های مقاومت عمومی: این موارد شامل مقاومت عمومی در برابر استفاده دولت از هوش مصنوعی است. این امر می‌تواند ناشی از بی‌اعتمادی به سیستم‌ها یا فرآیندهای هوش مصنوعی دولتی یا انتشار اطلاعات نادرست یا گمراه‌کننده در‌مورد نحوه پیاده‌سازی هوش مصنوعی در ادارات دولتی و تاثیرات بالقوه آن باشد.

     خطرات عدم اقدام: اگرچه اغلب نادیده گرفته می‌شود اما این خطر شامل تاخیر دولت در استفاده از هوش مصنوعی برای دستیابی به مزایای مثبت است. این امر می‌تواند منجر به هزینه‌های مالی و غیرمالی قابل‌توجهی شود -که در غیر این صورت با پذیرش موفقیت‌آمیز هوش مصنوعی قابل اجتناب بودند- و شکاف فزاینده‌ای بین قابلیت‌های بخش دولتی و خصوصی ایجاد کند.

    ۴-۱- خطرات اخلاقی

    ۴-۱-۱- دادههای ناکافی یا منحرف در سیستمهای هوش مصنوعی

    سیستم‌های هوش مصنوعی ظرفیت تداوم یا ایجاد نتایج نامطلوب یا مضر را دارند که ناشی از داده‌های ناقص یا ناکافی و همچنین نحوه تلاقی استفاده از هوش مصنوعی با رویه‌های نهادی و اجتماعی است که ماهیت انسان‌محور یا سیستمی دارند.

    تشخیص این نکته مهم است که الگوریتم‌ها به‌صورت مستقل عمل نمی‌کنند؛ آن‌ها در هر مرحله، از انتخاب مدل و داده‌های آموزشی گرفته تا تنظیم دقیق و تنظیم پارامترها، ازسوی انتخاب‌های انسانی شکل می‌گیرند. ازآن‌جایی‌که سیستم‌های هوش مصنوعی معمولا از داده‌های تولید‌شده ازسوی انسان یاد می‌گیرند، ناگزیر دیدگاه‌ها و رفتارهای اجتماعی موجود را منعکس می‌کنند. علاوه‌بر‌این، در دولت، الگوریتم‌ها به‌ندرت به‌طور مستقل تصمیم‌گیری می‌کنند؛ آن‌ها معمولا به‌عنوان ابزارهایی عمل می‌کنند که تصمیم‌گیری انسان را آگاه کرده و بر آن تاثیر می‌گذارند، نه این‌که جایگزین آن شوند. حتی در مواردی که سیاست‌ها با هدف استانداردسازی هستند، اجرای موفقیت‌آمیز هنوز به‌شدت به زمینه محلی و «تعامل آشفته چندین بازیگر با دانش متنوع» بستگی دارد. این تعامل بین هوش مصنوعی و قضاوت انسانی به این معنی است که خطاها نه‌تنها در خروجی‌های الگوریتمی، بلکه در نحوه تفسیر و اعمال توصیه‌های تولید‌شده ازسوی هوش مصنوعی نیز می‌توانند وجود داشته باشند؛ بنابراین، درک چگونگی پردازش و پاسخ تصمیم‌گیرندگان به اطلاعات تولید‌شده ازسوی هوش مصنوعی و اطمینان از داشتن مهارت‌های لازم برای استفاده از هوش مصنوعی به شیوه‌ای قابل اعتماد، بسیار مهم است. از یک طرف، ذهنیت شناختی باوجود بی‌طرفی ادراک‌شده هوش مصنوعی، همچنان در شکل‌دهی به تعاملات انسان و هوش مصنوعی مرتبط است، درحالی‌که از سوی دیگر، ماشین‌ها فاقد همدلی هستند؛ بنابراین، مهم است که کارمندان دولت بتوانند با اعمال اختیار عاقلانه، از قضاوت حرفه‌ای و خرد عملی برای تضمین انصاف استفاده کنند.

    سیستم‌های هوش مصنوعی همچنین به کیفیت داده‌های آموزشی بسیار حساس هستند و آن‌ها را مستعد بیش‌برازش الگوها، یادگیری همبستگی‌های جعلی و تقویت خطاها یا انحراف‌های تعبیه‌شده در مجموعه داده‌های تولید‌شده ازسوی انسان می‌کنند. درحالی‌که فراخوانی هوش مصنوعی به حذف نویز کمک می‌کند، همان‌طور‌که در بالا به‌عنوان یک مزیت مورد بحث قرار گرفت، ماهیت جست‌وجوی الگو آن نیز می‌تواند آن را تشدید کند، به‌ویژه هنگامی که ناسازگاری‌های سیستمی در داده‌های آموزشی وجود دارد. بدون نظارت و کاهش دقیق، هوش مصنوعی به‌جای ارایه تصمیمات عینی و قابل اعتماد، ریسک تقویت تحریفات را به همراه دارد و این امر نیاز حیاتی به گردآوری و اعتبارسنجی دقیق داده‌ها، آزمایش سیستم، نظارت و ارزیابی تاثیر پیش‌بینی‌کننده و گذشته‌نگر و شفافیت الگوریتمی در تصمیم‌گیری مبتنی بر هوش مصنوعی را برجسته می‌کند.

    به‌دلیل ظرفیت تاثیرات سیستمی، داده‌ها و الگوریتم‌های ناکافی یا منحرف می‌توانند انواع دیگری از خطرات، مانند مواردی را که در زیر مورد بحث قرار گرفته‌اند، نیز تشدید کنند.

    ۴-۱-۲- سوءاستفاده یا استفاده مشکوک از هوش مصنوعی، منجر به نگرانیهای نظارتی و حریم خصوصی میشود

    سوءاستفاده یا استفاده مشکوک از هوش مصنوعی در دولت می‌تواند منجر به آسیب به اعمال آزادانه آزادی‌ها و حقوق فردی شود. یکی از نگرانی‌های برجسته، استفاده از هوش مصنوعی در ارایه خدمات امنیت عمومی و ایمنی است، جایی که امکان شناسایی و ردیابی کارآمد از طریق داده‌های بیومتریک و نظارت در زمان واقعی را فراهم می‌کند. اگرچه این ابزارها می‌توانند برای اجرای قانون و پیشگیری از جرم مفید باشند، نگرانی‌هایی را در‌مورد حریم خصوصی داده‌ها و همچنین نظارت و کنترل اجتماعی ازسوی ادارات دولتی ایجاد می‌کنند؛ برای مثال، در طول همه‌گیری کووید ۱۹، از هوش مصنوعی برای ردیابی حرکات مردم برای اطمینان از رعایت دستورالعمل‌های خودقرنطینگی استفاده شد‌. اگرچه این اقدام برای کنترل شیوع ویروس در نظر گرفته شده بود، نگرانی‌هایی را درمورد حریم خصوصی در بین عموم ایجاد کرد. درواقع، نظارت مبتنی بر هوش مصنوعی به‌طور فزاینده‌ای فراگیر شده است؛ به‌طوری‌که بنیاد کارنگی برای صلح بین‌المللی دریافته است که ۹۷ کشور از ۱۷۹ کشور (۵۴ درصد) مورد تجزیه و تحلیل، از فناوری‌های هوش مصنوعی برای نظارت عمومی استفاده می‌کنند. این شاخص، کشورهای غیردموکراتیک را به‌عنوان محرک اصلی نظارت هوش مصنوعی، از‌جمله از‌طریق فروش محصولات به سایر کشورها، شناسایی کرد. با‌این‌حال، کشورهای دیگر، از‌جمله دموکراسی‌های لیبرال، نیز از کاربران اصلی نظارت هوش مصنوعی هستند. قانون هوش مصنوعی اتحادیه اروپا، زمان مجاز استفاده از هوش مصنوعی برای نظارت را تنظیم می‌کند و مواردی از استفاده را که «خطر غیرقابل قبول» هستند و در سراسر اتحادیه اروپا ممنوع شده‌اند، شناسایی می‌کند.

    به‌طور مشابه، ارایه خدمات شخصی‌سازی‌شده اغلب به پردازش الگوریتمی داده‌های پراکنده در منابع داده عمومی و گاهی خصوصی متعدد نیاز دارد. این امر نگرانی‌های مربوط‌به حریم خصوصی را افزایش می‌دهد و نیاز دولت‌ها را به دنبال کردن ارایه خدمات کارآمد و همچنین حفاظت قوی از حقوق حریم خصوصی افراد برجسته می‌کند؛ برای مثال، برای ارایه خدمات اجتماعی شخصی‌سازی‌شده، دولت‌ها ممکن است داده‌هایی را از سوابق مراقبت‌های بهداشتی، دستاوردهای تحصیلی، سابقه اشتغال و حتی فعالیت رسانه‌های اجتماعی جمع‌آوری کنند. در‌حالی‌که هدف ارایه پشتیبانی متناسب و مداخلات به‌موقع است، پردازش چنین حجم عظیمی از اطلاعات شخصی باید با‌دقت و عمدی انجام شود و کنترل‌هایی برای کاهش نگرانی‌های مربوط به نظارت وجود داشته باشد.

    یکی دیگر از موارد سوءاستفاده، امتیازدهی اجتماعی در ارایه خدمات یا سیاست‌گذاری است؛ روشی که در آن افراد بر‌اساس رفتار یا ویژگی‌های شخصی طبقه‌بندی می‌شوند. الگوریتم‌های هوش مصنوعی، داده‌ها را از منابعی مانند رسانه‌های اجتماعی، تراکنش‌های مالی و سوابق عمومی برای اختصاص امتیاز تجزیه و تحلیل می‌کنند. این امتیازها می‌توانند بر دسترسی به خدمات، وام‌ها و فرصت‌های شغلی تاثیر بگذارند و منجر به رفتار ناعادلانه شوند. استفاده دولت از چنین سیستم‌هایی در اتحادیه اروپا به‌عنوان یک استفاده غیرقابل قبول ممنوع است.

    در یک نظرسنجی اخیر از صدها متخصص در زمینه‌های مختلف، ۷۹ درصد گفتند که هوش مصنوعی تا سال ۲۰۴۰ تاثیر منفی بر حریم خصوصی مردم خواهد داشت، نگرانی که عموم مردم نیز با آن موافق هستند. دولت‌ها باید اطمینان حاصل کنند که استفاده آن‌ها از هوش مصنوعی قابل اعتماد است تا این نگرانی‌ها را کاهش دهند، زیرا این نگرانی‌ها مربوط به هوش مصنوعی در دولت است.

    سوءاستفاده احتمالی از ابزارهای هوش مصنوعی برای نظارت بر شهروندان ازسوی مقامات می‌تواند منجر به زیاده‌روی و سوءاستفاده از قدرت شود. نظارت مداوم و جمع‌آوری داده‌ها می‌تواند فضایی از ترس و بی‌اعتمادی ایجاد کند، به‌ویژه در میان جوامعی که ممکن است از قبل احساس کنند به‌طور نامتناسبی ازسوی نیروهای انتظامی هدف قرار گرفته‌اند. دولت‌ها همچنین می‌توانند از هوش مصنوعی برای تقویت قدرت سیاسی استفاده کنند و به‌طور بالقوه سلطه و اقتدارگرایی گسترده را تسهیل کنند، به‌ویژه ازسوی دولت‌های غیردموکراتیک یا دولت‌هایی که حفاظت از حقوق بشر را در اولویت قرار نمی‌دهند. برخی از کارشناسان معتقدند که هوش مصنوعی می‌تواند -‌و در برخی موارد در‌حال‌حاضر نیز استفاده می‌شود‌- برای ردیابی و نظارت بر شهروندان و ساکنان در مقیاس بزرگ، با استفاده از الگوریتم‌ها و تحلیل رفتاری، شناسایی و سرکوب مخالفان و تداوم رژیم‌های تمامیت‌خواه.

    در نهایت، دستکاری الگوریتمی، که در آن سیستم‌های هوش مصنوعی و نتایج آن‌ها برای تولید نتایج خاص تغییر داده می‌شوند، یکی دیگر از سوءاستفاده‌های بالقوه و رفتار غیراخلاقی در استفاده دولتی از هوش مصنوعی است. این دستکاری می‌تواند ناشی از تغییر عمدی نتایج سیستم ازسوی کارمندان دولت، تصمیم‌گیرندگان یا توسعه‌دهندگان سیستم‌های هوش مصنوعی باشد که به نفع یا آسیب رساندن به گروه‌ها یا افراد خاص یا پیشبرد یک دستور‌کار خاص انجام می‌شود. پیچیدگی ذاتی هوش مصنوعی علاوه‌بر‌این می‌تواند ردیابی و درک عملکرد داخلی الگوریتم‌ها را چالش برانگیز کند.

    ۴-۱-۳-عدم شفافیت و قابلیت توضیح

    سیستم‌های مبتنی‌بر یادگیری عمیق «جعبه‌های سیاه» هستند، به این معنی که توصیف نحوه تولید یک خروجی مشخص ازسوی آن‌ها دشوار است. چنین خروجی‌هایی به‌طور غیرمستقیم از آموزش یادگیری عمیق تولید می‌شوند، زیرا مهندسان به‌طور مداوم پارامترها را تغییر می‌دهند تا مدل در اهداف آموزشی امتیاز بالایی کسب کند. حتی دانشمندانی که روی مدل‌های پیشرفته یادگیری عمیق کار می‌کنند، عملکرد داخلی سیستم‌های خود را درک نمی‌کنند و ردیابی این خروجی‌ها و آزمایش قابلیت اطمینان این سیستم‌ها از طریق روش‌های سنتی برایشان دشوار است.

    این امر تشخیص و کاهش پیامدهای مضر را دشوار می‌کند و چالش‌هایی را در تعیین پاسخگویی در هنگام بروز مشکلات ایجاد می‌کند. با ادغام فزاینده سیستم‌های هوش مصنوعی در عملکردهای دولت، سیستم‌های جعبه سیاه می‌توانند توضیح منطق تصمیمات مبتنی بر هوش مصنوعی را برای شهروندان دشوار کنند. همچنین می‌تواند سایر خطرات هوش مصنوعی را تشدید کند؛ برای مثال، شناسایی سوگیری الگوریتمی و علل ریشه‌ای آن در سیستم‌های غیرشفاف می‌تواند دشوارتر باشد. کارمندان دولت همچنین می‌توانند به‌طور فزاینده‌ای حس اعتماد کاذبی به سیستم‌های هوش مصنوعی به‌ظاهر کارآمد اما ناقص داشته باشند، زیرا چنین نقص‌هایی ممکن است غیرقابل مشاهده باشند. این امر می‌تواند با محدود کردن توانایی آن‌ها در تصمیم‌گیری آگاهانه یا قرار‌دادن آن‌ها در معرض تصمیمات مبهم و ناقص مبتنی بر هوش مصنوعی، پاسخگویی دولت را تضعیف کرده و مردم را ناتوان سازد.

    ۴-۲- ریسکهای عملیاتی

    ۴-۲-۱- «سوگیری اتوماسیون» – اتکای بیشازحد به هوش مصنوعی

    بسیاری از مردم سیستم‌های هوش مصنوعی و تصمیمات آن‌ها را خنثی و بی‌طرف می‌دانند و این امر باعث می‌شود کاربران نتایج را بدون بررسی دقیق بپذیرند. مطالعات انجام‌شده در‌مورد تصمیم‌گیری با کمک هوش مصنوعی، تمایل به اضافه وزن دادن به توصیه‌های الگوریتمی را شناسایی کرده‌اند، که اغلب فرض می‌کنند پیش‌بینی آن‌ها قابل‌اعتمادتر از قضاوت انسانی است -حتی زمانی که خود سیستم هوش مصنوعی محدودیت‌هایی دارد. این «سوگیری اتوماسیون» (تمایل مردم به اعتماد به خروجی‌های هوش مصنوعی به دلیل منطقی و خنثی به نظر رسیدن آن‌ها) می‌تواند منجر به استفاده از تصمیم‌گیری هوش مصنوعی در تعداد فزاینده‌ای از چالش‌های اجتماعی شود- شاید برای جلوگیری از گفت‌وگوها و تصمیمات دشوار در‌مورد رویکردهای انسانی به این مسایل. برخی کارشناسان ادعا می‌کنند که این عادت باعث ایجاد «ایمان کورکورانه» به فناوری می‌شود، پدیده‌ای مشکل‌ساز که می‌تواند مسایل سیستمی موجود را علیه گروه‌ها یا افراد خاص تقویت کند و به نادیده گرفتن رنج‌های انسانی و فرسایش همدلی کمک کند.

    اصطلاحا «سوگیری اتوماسیون» در دولت زمانی رخ می‌دهد که سازمان‌های دولتی یا کارمندان دولت برای تصمیم‌گیری یا اجرای وظایف، بیش‌ازحد به سیستم‌های هوش مصنوعی متکی باشند؛ برای مثال، اگر متخصصان مراقبت‌های بهداشتی بیش‌ازحد به پیشنهادهای خودکار هوش مصنوعی بدون بررسی متقابل متکی باشند، ممکن است اطلاعات حیاتی را از دست بدهند یا تشخیص‌های نادرستی بدهند. این وابستگی بیش‌ازحد می‌تواند منجر به عدم تشخیص اشتباهات ازسوی کاربران، پذیرش خروجی‌های نادرست هوش مصنوعی و کاهش نظارت و قضاوت انسانی شود. هوش مصنوعی می‌تواند به‌طور سیستماتیک بدون ارزیابی کامل دقت و پیامدهای احتمالی اتخاذ شود و منجر به اتکا به سیستم‌های هوش مصنوعی و انتشار خطاهای ترکیبی در کل سیستم‌ها شود.

    یکی از عوامل موثر در چنین مسایلی، توهمات است که زمانی رخ می‌دهد که سیستم‌های هوش مصنوعی مولد، حقایق را به روشی معتبر می‌سازند، اغلب زمانی که پاسخ صحیحی در داده‌های آموزشی یافت نمی‌شود. این امر می‌تواند در زمینه‌هایی مانند تصمیم‌گیری‌های دولتی مضر باشد، جایی که ممکن است منجر به تصمیمات یا اقدامات نادرست شود؛ برای مثال، یک سیستم هوش مصنوعی که برای پاسخ به سوالات عمومی طراحی شده است، می‌تواند جزییات نادرستی درمورد خدمات عمومی ارایه دهد یا خدماتی را که وجود ندارند فهرست کند. اگر به‌دقت کاهش نیابد، این عواقب ناخواسته و خروجی‌های نادرست می‌توانند به‌سرعت گسترش یابند و بر جمعیت‌های بزرگ یا تصمیمات حیاتی داخلی دولت تاثیر بگذارند.

    سیستم‌های هوش مصنوعی همچنین می‌توانند مستعد اشتباهات و نقص‌های ساده باشند که می‌تواند منجر به انحرافات سیستماتیک و عدم دقت در خروجی‌های الگوریتمی شود. اگر این سیستم‌ها به‌دقت پیاده‌سازی نشوند یا از نظر فنی قابل‌اعتماد نباشند، اعتماد عمومی، از‌جمله کارمندان دولت را کاهش می‌دهند. شهروندان ممکن است به‌دلیل پردازش نادرست درخواست‌های خود یا تاخیر در ارایه خدمات، بارها دچار ناامیدی شوند؛ برای مثال، سیستم‌های خودکار که ارسال فرم، سوالات خدمات مشتری و درخواست‌های پرداخت را مدیریت می‌کنند، باید با دقت زیادی کار کنند. در غیر این صورت، اشتباهات یا اشکالات فنی می‌تواند منجر به تصور بی‌کفایتی و عدم اطمینان در خدمات عمومی شود. مشکلات یا خطاهای فنی در تعاملات چت‌بات، مانند پاسخ‌های نادرست، عدم توانایی در درک پرسش‌ها یا قطع سیستم، می‌تواند اعتماد را بیشتر از بین ببرد و باعث شود شهروندان احساس کنند که سیستم‌های هوش مصنوعی غیرقابل اعتماد و ناکارآمد هستند.

    ریسک‌گریزی نیز در «سوگیری اتوماسیون» نقش دارد. کارمندان دولت ممکن است از ترس این‌که بعدا دچار مشکل شوند، از پذیرفتن مسوولیت شخصی تصمیمات خود بترسند؛ برای مثال، زمانی که یک انسان برخلاف توصیه یک سیستم هوش مصنوعی تصمیم می‌گیرد و معلوم می‌شود که تصمیم اشتباه بوده است. در چنین مواردی، کارمند دولت دو برابر مسوول به نظر می‌رسد. برخی از سیستم‌های هوش مصنوعی دولتی حتی به گونه‌ای طراحی شده‌اند که کارمندان دولت را مجبور می‌کنند در صورت مخالفت با توصیه یک سیستم هوش مصنوعی، توجیهاتی برای بررسی بنویسند و این امر به بار کاری آن‌ها می‌افزاید و انگیزه‌ها را برای پیروی از توصیه‌های سیستم تقویت می‌کند.

    تحقیقات همچنین مفهوم پایبندی گزینشی را برجسته می‌کند که در آن تصمیم‌گیرندگان وقتی توصیه‌های الگوریتمی با باورهای از پیش موجود یا کلیشه‌های اجتماعی خود همسو می‌شوند، بیشتر احتمال دارد از آن‌ها پیروی کنند. این می‌تواند منجر به تصمیم‌گیری‌های عمومی تحریف‌شده شود، زیرا کارمندان دولت ممکن است ناخودآگاه از خروجی‌های هوش مصنوعی برای توجیه تعصبات از پیش موجود به‌جای ارزیابی انتقادی آن‌ها استفاده کنند.

    برخی تحقیقات نشان می‌دهد که اتکای بیش‌از‌حد به هوش مصنوعی ممکن است به کاهش توانایی‌های شناختی انسان، کاهش اکتشاف، خلاقیت و تفکر مستقل، منجر شود، زیرا افراد به راه‌حل‌های تولید‌شده ازسوی هوش مصنوعی عادت می‌کنند. مطالعات نشان می‌دهد که اتکای مکرر به سیستم‌های پشتیبانی تصمیم‌گیری مبتنی‌بر هوش مصنوعی می‌تواند منجر به تخلیه شناختی و کاهش مشارکت افراد در تفکر انتقادی و حل مساله مستقل شود. تصمیم‌گیری مبتنی‌بر هوش مصنوعی همچنین خطر ترویج همگن‌سازی رفتاری را به همراه دارد، زیرا خروجی‌های آن اغلب منعکس‌کننده تنوع محدودی از دیدگاه‌ها هستند. این محدود کردن دیدگاه‌ها می‌تواند مانع تفکر تطبیقی ​​شود و ظرفیت جوامع و دولت‌ها را برای پیمایش عدم قطعیت و ریسک کاهش دهد. اگرچه اتکای بیش‌از‌حد به هوش مصنوعی ممکن است خطراتی را به همراه داشته باشد، ابزارهای هوش مصنوعی همچنین می‌توانند به اپراتورهای انسانی در تفسیر و زیر سوال بردن تصمیمات پیچیده هوش مصنوعی کمک و از اتکای بیش‌ازحد جلوگیری کنند.

    ۴-۲-۲- کاهش کیفیت شغلی برای کارمندان دولت

    درحالی‌که هوش مصنوعی می‌تواند کیفیت شغلی و رفاه کارمندان دولت را افزایش دهد، همانطور که در بالا بحث شد، برخی از کاربردها می‌توانند اثر معکوس داشته باشند. استفاده از ابزارهای مدیریت الگوریتمی به طور قابل توجهی درحال افزایش است و به نرخ پذیرش ۹۰ درصد در شرکت‌های آمریکایی و ۷۹ درصد در اتحادیه اروپا رسیده است. درحالی‌که مطالعات خاص بخش دولتی انجام نشده است، نگرانی‌های ملموسی درمورد تاثیرات منفی موجود هوش مصنوعی و ابزارهای الگوریتمی بر کیفیت شغل، ازجمله تشدید کار، افزایش استرس، کاهش ادراک‌شده در انصاف و نظارت بر محل کار مطرح شده است؛ برای مثال، هوش مصنوعی می‌تواند با ایجاد انواع جدید نظارت در محل کار، یا اشکال جدید «تیلوریسم دیجیتال» فوق‌العاده کارآمد اما طاقت‌فرسا، که در آن کار تحت نظارت و تنظیم بیشتر، از‌جمله از طریق مدیریت الگوریتمی، قرار می‌گیرد، شغل‌ها را کم‌ارزش‌تر و استرس‌زاتر کند. تحقیقات بیشتر نشان داده است که چنین نظارت هوش مصنوعی می‌تواند به سلامت روان آسیب برساند و مدیریت وظایف هوش مصنوعی می‌تواند استقلال و صدای کارگران را از بین ببرد و بینش انسان درمورد نحوه مدیریت کار را کاهش دهد. بااین‌حال، اگر به‌خوبی استفاده شود، نشان داده شده است که چنین ابزارهایی ایمنی و رفاه کارگران را نیز بهبود می‌بخشند (برای مثال با هشدار‌دادن به کارگران در‌مورد خطرات و ریسک‌ها، یا شناسایی فرسودگی شغلی). مدیریت الگوریتمی و تاثیرات آن در‌حال‌حاضر با‌توجه‌به کاربردشان در بخش خصوصی مشاهده و مطالعه می‌شود. تحقیقات درمورد مدیریت الگوریتمی در بخش دولتی کمیاب است، اگرچه استفاده از آن به‌سرعت درحال گسترش است.

    ۴-۲-۳- تنشهای حریم خصوصی و مدیریت دادهها

    توسعه و استقرار سیستم‌های هوش مصنوعی، چالش‌هایی درمورد حریم خصوصی و مدیریت داده‌ها در طول چرخه عمر هوش مصنوعی ایجاد می‌کند. در مرحله آموزش هوش مصنوعی، بسیاری از توسعه‌دهندگان برای ساخت مجموعه داده‌های آموزشی هوش مصنوعی به منابع عمومی وابسته هستند که ممکن است عمدا یا سهوا شامل داده‌های شخصی یا اطلاعات مشمول حقوق مالکیت معنوی باشند. با‌این‌حال، صرفا به این دلیل که داده‌ها در اینترنت قابل دسترسی هستند، به‌طور خودکار به این معنی نیست که جمع‌آوری و استفاده از آن‌ها برای آموزش مدل‌های هوش مصنوعی رایگان است. علاوه‌‌بر این، افراد ممکن است داده‌های شخصی خود را با رضایت به استفاده یا استفاده‌های دیگری به اشتراک گذاشته باشند که لزوما شامل آموزش مدل‌های هوش مصنوعی نمی‌شود. جمع‌آوری داده‌های شخصی برای آموزش سیستم‌های هوش مصنوعی، مانند هر فعالیت پردازش داده، تابع اصول حریم خصوصی شناخته‌شده‌ای است که در توصیه‌نامه OECD در مورد دستورالعمل‌های حاکم بر حفاظت از حریم خصوصی و جریان‌های فرامرزی داده‌های شخصی آمده است. این اصول مستلزم آن است که داده‌های شخصی از طریق روش‌های قانونی و منصفانه و با آگاهی شخص موضوع داده‌ها به دست آیند و هرگونه استفاده بیشتر از داده‌ها با اهداف اصلی ناسازگار نباشد.

    جنبه مهم دیگری که باید در نظر گرفته شود، ظرفیت مدل‌های هوش مصنوعی برای به‌خاطر‌سپردن داده‌های شخصی در پارامترهای خود در طول مرحله آموزش است. در نتیجه، LLM های پشت ابزارهای هوش مصنوعی مولد مبتنی بر متن، خطر خاصی از دسترسی غیرمجاز و استفاده از داده‌های شخصی شخص ثالث را بدون اطلاع افراد مربوطه ایجاد می‌کنند. برخی تحقیقات همچنین نشان می‌دهد که مدل‌های هوش مصنوعی مولد قادرند ویژگی‌های شخصی موضوع داده را از متن با دقت بالا و در‌عین‌حال با هزینه کم استنباط کنند. این امر نگرانی‌هایی را در مورد حریم خصوصی ایجاد می‌کند، نه‌تنها به این دلیل که این استنباط‌ها می‌توانند اطلاعات شخصی یا ویژگی‌های شخصی را آشکار کنند، به‌ویژه هنگامی که چنین ویژگی‌هایی قرار نبوده به اشتراک گذاشته شوند.

    در طول مرحله استقرار، سیستم‌های هوش مصنوعی همچنین می‌توانند با حقوق افراد برای دسترسی، تصحیح و در صورت لزوم حذف داده‌های شخصی خود (که در دستورالعمل‌های حریم خصوصی OECD به‌عنوان «اصل مشارکت فردی» نیز شناخته می‌شود) در تضاد باشند؛ برای مثال، احقاق حقوق افراد برای حذف یا اصلاح داده‌هایشان می‌تواند از نظر فنی پیچیده و نیازمند منابع زیادی باشد، زیرا ممکن است نیاز به شناسایی نقاط داده خاص مربوط به یک فرد در مجموعه داده‌های بدون ساختار یا در برخی موارد آموزش مجدد مدل هوش مصنوعی داشته باشد. علاوه‌بر این، تحقیقات انجام‌شده قبل از استفاده گسترده از مدل‌های هوش مصنوعی مولد نشان می‌دهد که در موارد خاص، می‌توان با تجزیه و تحلیل رفتار مدلی که شامل آن داده‌ها است، داده‌های آموزشی اصلی را بازسازی یا از حالت ناشناس خارج کرد. برای مقابله با چنین تنش‌هایی، ترویج همکاری بین‌المللی بیشتر بین جوامع حریم خصوصی داده‌ها و هوش مصنوعی می‌تواند به هماهنگ‌سازی رویه‌های داده با توسعه و استفاده از هوش مصنوعی کمک کند.

    ۴-۲-۴- تهدیدهای سایبری

    سیستم‌های هوش مصنوعی که در فرآیندهای دولتی گنجانده شده‌اند، می‌توانند در برابر تهدیدهای سایبری آسیب‌پذیر باشند که می‌تواند منجر به نقض داده‌ها، نقض حریم خصوصی و ازدست‌دادن عملکرد شود. جمع‌آوری و تجزیه و تحلیل گسترده داده‌های شخصی برای برنامه‌های کاربردی هوش مصنوعی می‌تواند منجر به ازدست‌رفتن، تغییر یا افشای غیرمجاز این داده‌ها شود و حقوق حریم خصوصی افراد را نقض کند. دسترسی غیرمجاز و نقض داده‌ها می‌تواند داده‌های شخصی و یکپارچگی عملیاتی را به خطر بیندازد که می‌تواند منجر به سرقت هویت، کلاهبرداری مالی و سایر نقض‌های حریم خصوصی، تضعیف اعتماد عمومی به نهادهای دولتی و در‌نتیجه پیامدهای قانونی شود. علاوه‌براین، بازیگران سایبری مخرب می‌توانند سیستم‌های هوش مصنوعی را دستکاری کنند، خروجی‌های آن‌ها را تغییر دهند و باعث تصمیمات یا اقدامات نادرست شوند. خطرات سایبری ممکن است از بازیگران بد خارجی یا از تهدید‌های داخلی در دولت ناشی شود. درمجموع، امنیت سایبری را می‌توان به‌عنوان یک عملکرد افقی دولت در نظر گرفت و در واقع یکی از زمینه‌های پذیرش گسترده هوش مصنوعی در دولت برای افزایش امنیت سیستم‌های فناوری اطلاعات دولتی است.

    ۴-۳- خطرات محرومیت

    ۴-۳-۱- تشدید شکافهای دیجیتال

    خطر حذف افراد هنگام استفاده از هوش مصنوعی در دولت، ارتباط نزدیکی با شکاف‌های دیجیتال دارد، شکاف بین کسانی که می‌توانند به فناوری‌های اطلاعات و ارتباطات دسترسی داشته باشند و از آن‌ها استفاده کنند و کسانی که نمی‌توانند. این امر به‌ویژه در ارایه خدمات عمومی و فعالیت‌های سیاست‌گذاری، به‌ویژه در استفاده از هوش مصنوعی برای تجزیه و تحلیل پیش‌بینی، پیش‌بینی و شخصی‌سازی خدمات، مشهود است.

    شکاف‌های دیجیتال، دسترسی به مزایا و ارزش‌های عمومی را که هوش مصنوعی ارایه می‌دهد با خطر مواجه می‌کند. این امر به‌ویژه در میان جمعیت‌هایی که فاقد زیرساخت‌های لازم و سواد دیجیتالی برای تعامل با خدمات عمومی مبتنی بر هوش مصنوعی هستند، صادق است. هوش مصنوعی در دولت می‌تواند مزایایی -مانند اطلاعات سفارشی، زمان پاسخ سریع‌تر و ارایه خدمات پیشرفته- ارایه دهد اما ممکن است برای کسانی که به اینترنت یا مهارت‌های دیجیتال دسترسی ندارند، غیرقابل دسترس باشد. تغییر دولت‌ها به‌سمت دیجیتالی شدن می‌تواند موانع خدمات دولتی دیجیتال را در میان بخش‌های خاصی از جمعیت تشدید کند. تحقیقات در کانادا نشان داد که کاربران در مناطق روستایی، زنان و دختران و افراد خانواده‌های کم‌درآمد، تحت تاثیر منفی فشار به‌سمت خدمات دیجیتال به‌دلیل همه‌گیری کووید ۱۹ قرار گرفته‌اند. در نروژ، دیجیتالی شدن و اتوماسیون سیستم اعطای مزایای کودک، امکان دریافت خودکار این مزایا را برای اکثر دریافت‌کنندگان فراهم کرد. درعین‌حال، این امر منجر به نیاز سایر دریافت‌کنندگان به درخواست دستی شد.

    شکاف داده‌ها نوع دیگری از محرومیت ناشی از هوش مصنوعی است که با داده‌های غیرنماینده مرتبط است، که نتیجه شکاف‌های دیجیتالی موجود است. افرادی که به اینترنت دسترسی ندارند، اغلب در داده‌های مورد استفاده برای توسعه الگوریتم‌ها غایب هستند. ازآن‌جاکه بیشتر داده‌ها عمدتا ازطریق اینترنت و تعاملات آنلاین جمع‌آوری می‌شوند، استفاده گسترده از هوش مصنوعی ممکن است این افراد را حذف کند، زیرا الگوریتم‌های مورداستفاده برای اطلاع‌رسانی در سیاست‌گذاری فاقد داده‌های نماینده هستند. این شکاف‌ها، پاسخگویی مناسب به نیازهای همه شهروندان را برای دولت‌ها دشوار می‌کند و منجر به مجموعه داده‌های ناکافی یا نامناسب در فرآیندهای تصمیم‌گیری مبتنی بر هوش مصنوعی و ارایه خدمات می‌شود؛ برای مثال، شکاف داده‌ها، ظرفیت مزایای هوش مصنوعی، مانند خدمات هوش مصنوعی شخصی‌سازی‌شده را محدود می‌کند و آن‌ها را فقط برای جمعیت‌های غنی از داده مفید و دقیق باقی می‌گذارد.

    شکل دیگری از شکاف دیجیتال شامل عدم نمایش کافی زبان‌هاست. همان‌طور که در شکل ۱.۴ مشاهده می‌شود، مجموعه داده‌های آموزشی تمایل دارند زبان‌های پرکاربرد را بیش‌ازحد نمایش دهند. این عدم تعادل می‌تواند منجر به سیستم‌های هوش مصنوعی شود که نمی‌توانند به‌طور موثر به گروه‌های زبانی غیرغالب خدمت‌رسانی کنند. تلاش‌های حفظ زبان، مانند طرح «اهدای سخنرانی» در استونی، محدودیت‌های فعلی فناوری گفتار را که به نفع زبان‌های شناخته‌شده‌تر است، کاهش می‌دهد و ارایه خدمات را بهبود می‌بخشد.

    ۴-۳-۲- جابهجایی نیروی کار خدمات عمومی

    سازمان همکاری و توسعه اقتصادی (OECD) دریافت که اگرچه هوش مصنوعی قادر به خودکارسازی وظایف غیرروزمره است، تاثیرات آینده آن بر نیروی کار مبهم است؛ این تاثیرات به تعادل بین جایگزینی نیروی کار انسانی ازسوی هوش مصنوعی، افزایش تقاضای نیروی کار به‌دلیل بهره‌وری بیشتر ناشی از هوش مصنوعی و ایجاد مشاغل جدید ناشی از پذیرش هوش مصنوعی بستگی دارد. هوش مصنوعی می‌تواند با خودکارسازی وظایف، بهره‌وری دولت را افزایش دهد و همچنین ظرفیت کاهش نیاز به نیروی کار انسانی را دارد که به نیاز به آموزش مجدد کارمندان دولت برای انجام وظایف معنادارتر منجر می‌شود.

    در عین‌حال، استقرار هوش مصنوعی باعث افزایش تقاضا برای مهارت‌های مرتبط با هوش مصنوعی در سراسر اقتصاد می‌شود و بخش دولتی نیز از این قاعده مستثنا نیست. با افزایش نقش‌های مرتبط با هوش مصنوعی، ممکن است تلاش‌های استخدام و حفظ نیرو برای موقعیت‌های غیر هوش مصنوعی یا سنتی کاهش یابد که این امر نیاز به نیروی کار ماهر در هوش مصنوعی و فناوری‌های مرتبط را برای برآورده کردن تقاضاهای درحال تحول برجسته می‌کند.

    فناوری‌های هوش مصنوعی طیف وسیعی از مشاغل و بخش‌ها را تحت‌تاثیر قرار می‌دهند و بر کارگران در تمام سطوح مهارت تاثیر می‌گذارند و بر بازارهای کار تاثیر می‌گذارند. درحالی‌که برخی از کارمندان دولت ممکن است با هوش مصنوعی سازگار شوند و حتی شاهد بهبود کار خود باشند، برخی دیگر، مانند کارگران مسن‌تر و کم‌مهارت که وظایفی را انجام می‌دهند که به‌راحتی خودکار می‌شوند، با خطرات قابل‌توجهی روبه‌رو هستند. این نشان می‌دهد که مزایای هوش مصنوعی به‌طور مساوی بین کارمندان دولت تقسیم نمی‌شود؛ برای مثال، چت‌بات‌های مبتنی بر هوش مصنوعی اکنون معمولا برای ارایه خدمات و ارتباطات شهروندمحور برای پاسخ به سوالات اساسی و ارایه اطلاعات استفاده می‌شوند، که تقاضا برای نمایندگان خدمات مشتری انسانی دولتی را کاهش می‌دهد.

    سال‌هاست که نگرانی‌ها درمورد اتوماسیون شغلی بر نیروی کار کم‌مهارت متمرکز بوده است اما وظایف با شناخت بالا به‌طور فزاینده‌ای ازسوی هوش مصنوعی پشتیبانی می‌شوند که می‌تواند بر کارمندان دولت مانند تحلیلگران سیاست تاثیر بگذارد. هوش مصنوعی مولد می‌تواند متن معناداری تولید کند، تجزیه و تحلیل داده‌ها را انجام دهد و حتی راهبرد‌های سیاستی را برای پرداختن به چالش‌های پیچیده پیشنهاد دهد. بسیاری از کارمندان دولت باید برای همکاری موثر با هوش مصنوعی و تمرکز بر تفکر استراتژیک و تصمیم‌گیری سطح بالاتر آموزش ببینند.

    ۴-۴- خطرات مقاومت عمومی

    ۴-۴-۱- شهروندان ممکن است خروجیهای مبتنی بر هوش مصنوعی را بهصورت گزینشی بپذیرند، که بهطور بالقوه به خطاها کمک میکند

    درک تعاملات انسان و هوش مصنوعی به‌طور فزاینده‌ای به‌عنوان یک چالش کلیدی برای مدیریت عمومی تلقی می‌شود و پیامدهای قابل‌توجهی برای اعتماد و مشروعیت دارد. با ادغام هوش مصنوعی ازسوی دولت‌ها در تصمیم‌گیری، پذیرش عمومی این سیستم‌ها حیاتی می‌شود. تحقیقات نشان می‌دهد که تصمیمات الگوریتمی، باوجود وعده بی‌طرفی، همیشه منصفانه یا مشروع تلقی نمی‌شوند، به‌ویژه هنگامی که با انتظارات افراد مغایرت دارند یا فاقد شفافیت هستند.

    شهروندان تصمیمات الگوریتمی را ازطریق ادراکات شناختی و باورهای قبلی پردازش می‌کنند؛ آن‌ها اغلب به‌صورت گزینشی توصیه‌های تولیدشده ازسوی هوش مصنوعی را که با انتظاراتشان همسو است، می‌پذیرند و درعین‌حال در برابر توصیه‌های خلاف آن مقاومت می‌کنند. این پیروی گزینشی می‌تواند خطاها را در تصمیم‌گیری‌های دولتی تقویت کند، زیرا افراد ممکن است زمانی که پیش‌بینی‌های الگوریتمی کلیشه‌های از پیش موجود یا دانش قبلی خود را تایید می‌کنند، بیشتر به آن‌ها اعتماد کنند.

     

    4-4-2- فقدان توانمندسازی و درک عمومی در مورد نحوه استفاده دولت از هوش مصنوعی

    اغلب در بین مردم، به‌طورکلی و به‌طور خاص، نحوه استفاده دولت از هوش مصنوعی، دانش و درک کمی وجود دارد. این می‌تواند منجر به تصورات غلط و ترس در مورد قابلیت‌های آن و این‌که آیا دولت‌ها از آن به شیوه‌ای قابل اعتماد استفاده می‌کنند یا خیر، شود. این امر می‌تواند به‌طور بالقوه منجر به پیامدهایی مانند شایعاتی شود که به صورت آنلاین در مورد استفاده دولت از هوش مصنوعی در سیاست‌گذاری یا ارایه خدماتی مانند وام، دسترسی به عدالت یا مزایای اجتماعی منتشر می‌شود. این امر می‌تواند به این دلیل رخ دهد که پیچیدگی هوش مصنوعی اغلب به‌اشتباه درک می‌شود و منجر به فرضیات نادرست در مورد نحوه تصمیم‌گیری، منصفانه بودن نتایج و توانایی پاسخگو نگه‌داشتن این سیستم‌ها می‌شود؛ یا به‌دلیل شفافیت محدود در مورد نحوه استفاده مقامات دولتی از هوش مصنوعی. این شفافیت محدود یا شکاف در درک، مردم را بیشتر مستعد بدبینی نسبت‌به اقدامات و نیات دولت‌ها می‌کند و درنتیجه در برابر راه‌حل‌های مبتنی بر هوش مصنوعی در خدمات عمومی مقاومت ایجاد می‌کند.

    تصمیمات هوش مصنوعی می‌تواند بیش‌ازحد سختگیرانه یا غیرقابل پاسخگویی تلقی شود، به‌ویژه در غیاب نظارت انسانی یا راه‌های جبران خسارت. تحقیقات نشان می‌دهد که وقتی شهروندان در تعامل با سیستم‌های خودکار احساس ناتوانی می‌کنند – مانند عدم توانایی در به چالش کشیدن تصمیمات نادرست مبتنی بر هوش مصنوعی – هزینه‌های روانی و انطباق بالاتری را تجربه می‌کنند.

    برعکس، سطوح بالاتر توانمندسازی عمومی و شفافیت در استفاده، دانش و درک هوش مصنوعی با اعتماد بیشتر به توانایی دولت در استفاده مسوولانه از هوش مصنوعی مرتبط است. شهروندان آگاه، احتمال بیشتری دارد که اقدامات حفاظتی و ملاحظات اخلاقی اعمال شده ازسوی دولت را تشخیص دهند و اعتمادبه‌نفس خود را درمورد شایستگی و صداقت در به‌کارگیری فناوری‌های هوش مصنوعی تقویت کنند.

    ۴-۴-۳- سوءاستفاده از هوش مصنوعی و رسواییها میتواند اعتماد را تضعیف کرده و به مقاومت عمومی کمک کند

    استفاده از هوش مصنوعی در دولت منجر به چندین رسوایی بزرگ و موارد آسیب در دنیای واقعی شده است. این امر هزینه‌های بالای سوءاستفاده از هوش مصنوعی را برجسته می‌کند، به‌طوری‌که مسایلی که سال‌ها پیش اتفاق افتاده‌اند، هنوز در گفتمان عمومی مطرح هستند. شکست‌های بزرگ در یک سیستم هوش مصنوعی می‌تواند اعتماد به طیف وسیع‌تری از موارد استفاده دولتی را از بین ببرد. واکنش‌های منفی عمومی حتی منجر به کناره‌گیری مردم از اشتراک‌گذاری داده‌ها یا ایجاد مانع در استفاده از ابزارهای موجود شده است.

    واکنش‌های منفی عمومی به‌ویژه زمانی محتمل است که خطاهای هوش مصنوعی منجر به آسیب‌های قابل مشاهده، مانند محرومیت نادرست از مزایا یا رفتار ناعادلانه براساس پیش‌بینی‌های نادرست، شود. شکست‌های بزرگ می‌توانند شک و تردید عمومی را تقویت کرده و نگرانی‌هایی را ایجاد کنند که تصمیمات مبتنی بر هوش مصنوعی ممکن است عدالت رویه‌ای و پاسخگویی دموکراتیک را تضعیف کند. داده‌های OECD AI Incidents Monitor (AIM) نشان‌دهنده رشد حوادث و خطرات هوش مصنوعی گزارش شده ازسوی منابع رسانه‌ای معتبر در سال‌های اخیر است (شکل ۱.۵).۱۷ تا آوریل ۲۰۲۵، ۳۸۱۶ مورد از ۱۴۹۸۱ حادثه فهرست شده (۲۵ درصد) مربوط به «دولت، امنیت و دفاع» بوده است که نشان می‌دهد دولت‌ها باید اطمینان حاصل کنند که خطرات را کاهش می‌دهند تا اعتماد شهروندان را جلب کنند.

    شهروندان همچنین می‌توانند از خود بیزاری الگوریتمی نشان دهند و اغلب به‌دلیل ترجیح دادن به عاملیت و کنترل شخصی، در برابر تصمیم‌گیری الگوریتمی مقاومت می‌کنند، حتی زمانی که سیستم‌های هوش مصنوعی از انسان‌ها بهتر عمل می‌کنند. این بی‌میلی با تحمل بیشتر خطاهای انسانی در مقایسه با اشتباهات الگوریتمی تقویت می‌شود؛ مردم پس از مشاهده یک شکست، تمایل دارند اعتماد خود را به هوش مصنوعی از دست بدهند، درحالی‌که نسبت‌به خطاهای مشابه انجام‌شده ازسوی انسان‌ها بخشنده‌تر هستند. بیزاری الگوریتمی می‌تواند در برخی از عملکردها (مانند امنیت عمومی) نسبت‌به سایر عملکردها (مانند مدیریت عمومی) رایج‌تر باشد، که می‌تواند به چالش‌های مختلف و سطوح مختلف بلوغ در عملکردهای دولتی منجر شود. ارایه بینش به کاربران درمورد استدلال پشت توصیه هوش مصنوعی یا ارایه کنترل محدود برای تغییر خروجی آن می‌تواند به‌طور قابل‌توجهی پذیرش را بهبود بخشد و احتمال پذیرش توصیه‌های مبتنی بر هوش مصنوعی ازسوی کاربران را افزایش دهد. فراتر از افزایش خطرات مقاومت عمومی، بیزاری از الگوریتم‌ها ازسوی کارمندان دولت می‌تواند مانع از توانایی دولت‌ها در بهره‌برداری از مزایای هوش مصنوعی شود.

    ۴-۵- خطرات عدم اقدام

    مهم‌ترین خطرات هوش مصنوعی شامل پیامدهای استقرار و پذیرش آن است. بااین‌حال، یک خطر کمتر مورد بحث شامل تاخیر در استفاده از هوش مصنوعی برای دستیابی به مزایای مثبت در دنیای واقعی، ازجمله در دولت و خدمات عمومی است. مطالعه صدساله دانشگاه استنفورد درمورد هوش مصنوعی اشاره کرد که «پیشرفت‌های متعدد در هوش مصنوعی می‌تواند هزینه‌ها را کاهش دهد،

    ری و تحول را تقویت کند.

    کارایی‌های جدیدی را معرفی کند و کیفیت زندگی را افزایش دهد… بااین‌حال، این روش‌ها به‌طور گسترده مورد استفاده قرار نگرفته‌اند. انتقال کند این فناوری‌ها به جهان به مرگ و میر و هزینه‌های غیرضروری منجر می‌شود. نیاز فوری به درک بهتر چگونگی انتقال سریع‌تر شایستگی‌ها و پیشرفت‌های ارزشمند موجود هوش مصنوعی به عمل در دنیای واقعی وجود دارد.» درحالی‌که این مطالعه بیش از یک دهه قدمت دارد، نتیجه‌گیری همچنان یکسان است، به‌خصوص در دولت. فراتر از فرصت‌های ازدست‌رفته، خطر عدم اقدام در زمینه هوش مصنوعی، شکاف بین ظرفیت بخش دولتی و بخش خصوصی را افزایش می‌دهد. این نه‌تنها به این معنی است که دولت‌ها می‌توانند در توانایی خود در استفاده از هوش مصنوعی، بلکه در توانایی خود در تنظیم این فناوری نیز عقب بمانند. کارشناسان هوش مصنوعی معتقدند که یکی از مهم‌ترین خطرات هوش مصنوعی، ناتوانی سازوکارها و نهادهای حاکمیتی در همگام شدن با تحولات سریع هوش مصنوعی است.
    برخی تحقیقات نشان می‌دهند که تبلیغات منفی و ترس درباره هوش مصنوعی می‌تواند به این خطر دامن بزند. چنین تحقیقاتی خاطرنشان می‌کند که محدودیت‌های دیگر ممکن است شامل کمبود داده‌های مناسب، سردرگمی درمورد مسایل و پیچیدگی‌های حریم خصوصی و مقابله با سیستم‌های فناوری اطلاعات قدیمی و منسوخ باشد. کارشناسان همچنین مساله «فلج تحلیل» -‌ترس از اشتباه در هوش مصنوعی- را به‌عنوان احتمالی که می‌تواند اجرای حتی تلاش‌های کم‌خطر را فلج کند و مزایای قابل‌توجهی را از دست بدهد، نسبت داده‌اند. این موضوع در دولت نیز صادق بوده است؛ آخرین کار مشترک OECD در مورد هوش مصنوعی در دولت نشان داد که دولت‌ها باید به‌جای تمرکز نامتناسب بر جلوگیری از جنبه‌های منفی، جنبه‌های مثبت استفاده از هوش مصنوعی را بهتر ترویج و فعال کنند. این تمرکز بر خطرات ممکن است مانع از به‌کارگیری کاربردهای پرمنفعت و کم‌خطر هوش مصنوعی برای بهبود سیاست‌ها و خدمات عمومی شود.

    ۵- تحقق آینده‌ای مثبت برای هوش مصنوعی در دولت
    همان‌طور که در بالا بحث شد، دولت‌ها به‌دنبال استفاده از هوش مصنوعی برای افزایش بهره‌وری، با عملیات داخلی کارآمدتر و سیاست‌ها و خدمات موثرتر؛ پاسخگویی، ازطریق رویکردهای متناسب که نیازهای درحال تحول شهروندان و مشاغل را برآورده می‌کند؛ و پاسخگویی با افزایش ظرفیت نظارتی خود هستند. بااین‌حال، ظرفیت استفاده‌نشده فوق‌العاده‌ای برای دولت‌ها وجود دارد تا از فناوری‌های هوش مصنوعی امروزی استفاده کنند و برای گشودن فرصت‌های ارایه‌شده ازسوی هوش مصنوعی فردا آماده شوند. با‌این‌حال، چشم‌اندازی از آینده‌ای که در آن دولت‌ها با موفقیت هوش مصنوعی قابل اعتماد را توسعه داده و به‌کار می‌گیرند، در‌حال ظهور است. این چشم‌انداز تاکید می‌کند: «هوش مصنوعی را نه به‌عنوان فرصتی برای خودکارسازی بخش دولتی، بلکه برای بازآفرینی آن ببینیم. ما از یک چشم‌انداز بلندمدت برای تحول خدمات عمومی استقبال می‌کنیم که در آن هوش مصنوعی به‌جای رهبری، از آن پیروی می‌کند؛ چشم‌اندازی که مبتنی بر مشروعیت عمومی و حرفه‌ای باشد. رهبران بخش دولتی باید به‌جای تمرکز صرف بر افزایش فوری بهره‌وری یا خودکارسازی وضع موجود، به گسترش هوش مصنوعی به‌عنوان فرصتی برای بازآفرینی دولت نگاه کنند. هوش مصنوعی باید به‌عنوان شتاب‌دهنده‌ای برای طراحی مجدد اساسی خدمات در نظر گرفته شود و شهروند را در مرکز ارایه خدمات عمومی قرار دهد.»
    دولت‌ها با دنبال‌کردن هوش مصنوعی به عنوان بخشی از استقرار دیجیتال خود، می‌توانند به‌جای بهینه‌سازی، نحوه دستیابی به ماموریت‌های خود، ارایه ارزش عمومی و ارتقای رفاه اجتماعی را متحول کنند.
    قابلیت‌ها و کاربردهای آینده هوش مصنوعی ممکن است مزایا و تغییراتی را به همراه داشته باشد که درحال‌حاضر غیرممکن یا حتی غیرقابل تصور هستند. این موضوع درمورد خطرات احتمالی آن نیز صادق است. دولت‌ها و سازمان همکاری و توسعه اقتصادی باید در ارزیابی چگونگی تاثیر فناوری‌ها و برنامه‌های در حال تکامل هوش مصنوعی بر موسسات دولتی، کارمندان دولت و جامعه به‌طور‌کلی هوشیار باشند – و ارزیابی و سازگاری مداوم را در خدمت منافع عمومی تضمین کنند.
    سازمان همکاری و توسعه اقتصادی (OECD) از طریق تحلیل و ترکیب کارکردهای دولت و برای بحث بیشتر در مورد هوش مصنوعی در دولت، تحقیقات جامعی را درمورد روندهای فعلی استفاده از هوش مصنوعی در کارکردهای دولتی انجام داده و درس‌های اولیه‌ای را از این موارد استفاده شناسایی کرده است. این تحقیق و یافته‌های آن در بخش بعد مورد بحث قرار گرفته است.

     

     

     

    نوشته های مشابه

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *