×

معرفی کتاب «افسانه هوش مصنوعی»
به سوی هوش مصنوعی انسانی تر

  • ۲۴ شهریور ۱۴۰۴
  • 45 بازدید
  • ۱ دیدگاه
  • کتاب «افسانه هوش مصنوعی» با عنوان کامل «The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do» توسط اریک جی. لارسون (Erik J. Larson)نوشته شده و بوسیله انتشارات دانشگاه هاروارد (Harvard University Press) در سال ۲۰۲۱ منتشر شده است. این کتاب در ایران توسط محمد مظفرپور ترجمه و توسط انتشارات امیرکبیر به زیور طبع آراسته شده است.
    به سوی هوش مصنوعی انسانی تر
  • کتاب «افسانه هوش مصنوعی» با عنوان کامل
    «The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do» توسط اریک جی. لارسون (Erik J. Larson)نوشته شده و بوسیله انتشارات دانشگاه هاروارد (Harvard University Press) در سال ۲۰۲۱ منتشر شده است. این کتاب در ایران توسط محمد مظفرپور ترجمه و توسط انتشارات امیرکبیر به زیور طبع آراسته شده است.

    اشاره

    اریک لارسون، دانشمند علوم کامپیوتر و فیلسوف، در این کتاب استدلال می‌کند که ادعاهای اغراق‌آمیز درباره هوش مصنوعی (AI) مبنی بر دستیابی به «هوش عمومی مصنوعی» (AGI) در آینده‌ای نزدیک، بر پایه‌ای سست بنا شده‌اند. او معتقد است که فناوری‌های کنونی AI (مانند یادگیری عمیق) قادر به تقلید هوش انسانی نیستند و شکاف‌های بنیادینی در مسیر رسیدن به AGI وجود دارد.

    لارسون نتیجه می‌گیرد که هوش مصنوعی عمومی (AGI) یک افسانه است مگر آن‌که علم پایه‌ای در زمینه استدلال و شناخت انسانی پیشرفت چشمگیری کند. به جای ترس از سیاه‌چاله هوش مصنوعی، باید بر محدودیت‌های فعلی تمرکز و از سرمایه‌گذاری در تبلیغات پوچ اجتناب کرد.

    این اثر پادزهری برای هیجان‌زدگی رسانه‌ها درباره AI ارایه می‌دهد. از منظر فلسفه علم و علوم شناختی، شکاف میان هوش انسان و ماشین را تحلیل می‌کند. برای سیاست‌گذاران، دانشمندان و عموم مردم آگاهی‌بخش است.

     محورهای کلیدی

     انتقاد از استدلال تکاملی هوش مصنوعی: لارسون استدلال می‌کند که پیشرفت‌های اخیر در AI تنها در وظایف محدود موفق بوده‌اند .این موفقیت‌ها به معنای حرکت به سمت هوش انسانی نیست، زیرا AI فاقد استدلال استقرایی (Inference) و درک علّی (Causal Reasoning) است.

     محدودیتهای یادگیری عمیق: سیستم‌های مبتنی بر داده‌های بزرگ و الگوریتم‌های آماری، تنها قادر به شناسایی الگوهای موجود در داده‌ها هستند. آن‌ها نمی‌توانند استدلال فرضیه‌محور (Hypothetical Reasoning) یا خلاقیت انسانی را تقلید کنند.

     چالش استنتاج: لارسون تأکید می‌کند که هسته هوش انسانی، توانایی استنتاج از اطلاعات ناکامل است (مانند تشخیص علت یک رویداد با داده‌های محدود). فناوری‌های کنونی AI قادر به این نوع استدلال نیستند و تنها در محیط‌های ساختگی و کنترل‌شده عمل می‌کنند.

     هشدار درباره افراطگریهای فناورانه: کتاب نقدی تند به شخصیت‌هایی مانند ایلان ماسک و ری کورزویل وارد می‌کند که معتقدند AGI یا «ابرهوش» تا ۲۰۴۵ محقق می‌شود. لارسون این ادعاها را بدون پشتوانه علمی و ناشی از اسطوره‌سازی می‌داند.

     نیاز به پارادایمهای جدید: رسیدن به هوش شبه‌انسانی مستلزم انقلابی در علوم شناختی است، نه صرفا توسعه الگوریتم‌های پیچیده‌تر. او پیشنهاد می‌کند پژوهش‌ها باید بر ترکیب استدلال منطقی و یادگیری ماشین متمرکز شوند.

    افسانه هوش مصنوعی

    کتاب «افسانه هوش مصنوعی» با وجود استدلال‌های قوی، از سوی منتقدان چند انتقاد اساسی دریافت کرده است. این نقدها عمدتا از سوی پژوهشگران هوش مصنوعی، فیلسوفان فناوری و طرفداران رویکردهای نوین در AI مطرح شده‌اند:

     بدبینی افراطی نسبت به پیشرفتهای آینده: منتقدانی مانند یان لکون، متخصص یادگیری عمیق معتقد است: لارسون موفقیت‌های شگرف یادگیری عمیق در پردازش زبان طبیعی (NLP) و بینایی ماشین را نادیده می‌گیرد. مدل‌هایی مثل GPT-4 نشان داده‌اند که ماشین‌ها می‌توانند شبه‌استنتاج (pseudo-reasoning) انجام دهند، حتی اگر درک علّی نداشته باشند. کتاب پیشرفت‌های اخیر در ترکیب یادگیری ماشین با منطق نمادین (مثل سیستم‌های Neuro-Symbolic) را کم‌اهمیت جلوه می‌دهد.

     بیتوجهی به پتانسیل «یادگیری از تعامل»: لارسون بر محدودیت داده‌های تاریخی تأکید دارد، اما راهکارهای مدرن مانند یادگیری تقویتی (Reinforcement Learning) یا ربات‌های دارای بدن فیزیکی که از محیط واقعی یاد می‌گیرند (مثل پروژه‌های رباتیک Boston Dynamics) را نادیده می‌گیرد. بطور مثال سیستم‌هایی مثل AlphaFold که ساختار پروتئین‌ها را کشف می‌کنند، نشان می‌دهند AI می‌تواند به کشف علمی دست یابد، حتی بدون درک انسانی.

     تعریف محدود از «هوش»: منتقدان فلسفی از جمله دنیل دنت معتقد هستند: لارسون هوش انسانی را به عنوان معیار طلایی در نظر می‌گیرد، اما هوش مصنوعی ممکن است اشکال کاملا جدیدی از شناخت ایجاد کند که شباهتی به انسان ندارد. الزامی نیست که AGI دقیقا مانند انسان فکر کند. این دیدگاه، کتاب را متهم به انسان‌محوری بیش‌ازحد (Anthropocentrism) می‌کند.

     کمتوجهی به راهکارهای عملی برای حل محدودیتها: کتاب به‌جای ارایه راهکارهای ملموس برای بهبود AI (مثل توسعه شبکه‌های عصبی مبتنی بر استنتاج علّی)، صرفا بر نقد متمرکز است. پژوهشگرانی مانند جودی پرل معتقدند با تلفیق فرهنگ علّی (Causal Calculus) در یادگیری ماشین، می‌توان گام‌هایی به سمت استنتاج علّی برداشت.

     غفلت از نقش «هوش جمعی» در تکامل AI: منتقدان استدلال می کنند که لارسون بر هوش فردی انسان تأکید دارد، اما سیستم‌های AI مدرن می‌توانند از شبکه‌های بزرگ انسانی-ماشینی (مثل Wikipedia + GPT) بهره ببرند تا شکاف‌های استدلالی را پر کنند. بطور مثال سیستم‌های Human-in-the-loop AIکه خطاهای استنتاج را با کمک انسان اصلاح می‌کنند.

     نادیده گرفتن پیشرفتهای علوم اعصاب در شبیهسازی مغز: منتقدان از منظر علوم شناختی نیز به بررسی این اثر پرداخته اند. از این منظر پروژه‌هایی مانند مغز انسان (Human Brain Project) یا تحولات در محاسبات نورومورفیک نشان می‌دهند که شبیه‌سازی مکانیزم‌های بیولوژیک مغز دور از دسترس نیست. این در حالی است که کتاب این مسیر را ناممکن فرض می‌کند.

    این نقدها نشان‌دهنده گفت‌وگوی علمی زنده در حوزه AI است. ارزش کتاب لارسون در این است که جامعه را از خطرات اتکای کورکورانه به فناوری آگاه می‌کند. معیارهای سخت‌گیرانه‌ای برای تعریف هوش ارایه می‌دهد. و پرسش‌های بنیادینی مطرح می‌کند که پژوهش‌های آینده باید به آن‌ها پاسخ دهند. به قول فیلسوف علم کارل پوپر، نظریه‌های بزرگ همیشه جرقه‌ای برای نقد می‌زنند، نه چون نادرست‌اند، بلکه چون مهم‌اند.

    مشکل استقرا
    هوش انسانی قادر است از معدود مشاهدات، قوانین جهانی استنباط کند؛ ماشین‌ها اما در دامِ داده‌های عظیم گرفتارند. این همان شکاف بنیادین است: انسان‌ها با حداقل اطلاعات به حداکثر تعمیم می‌رسند، در حالی که هوش مصنوعی حتی با انبوه داده‌ها، در تشخیص الگوهای ساده ناتوان است. فلسفهٔ هیوم امروز بیش از هر زمان دیگری زنده است: ماشین‌ها هرگز نمی‌توانند از «هست» به «باید» گذر کنند.

    معضل استنتاج
    هستهٔ تراژدی هوش مصنوعی در ناتوانی آن از استنتاج علّی نهفته است. انسان می‌پرسد: «چرا این اتفاق افتاد؟» و با ساختن فرضیه‌هایی از دل ناشناخته‌ها پاسخ می‌یابد. ماشین اما تنها می‌پرسد: «چه الگویی در این داده‌ها وجود دارد؟». این دو پرسش، جهان‌هایی جداگانه می‌سازند: یکی جهانِ شناخت است، دیگری جهانِ تقلید.

    اسطوره یادگیری عمیق
    شبکه‌های عصبی عمیق، با تمام هیاهویشان، چیزی جز ماشین‌های الگویابی پیچیده نیستند. آن‌ها می‌توانند گربه را در تصویر تشخیص دهند، اما هرگز درک نمی‌کنند که چرا یک گربه می‌تواند روی سقف راه برود یا چگونه برف روی مویش تاثیر می‌گذارد. این سیستم‌ها فاقد کوچک‌ترین جرقه‌ای از شهود فیزیکی یا تفکر ضدواقعی (counterfactual) هستند که در یک کودک سه‌ساله یافت می‌شود.

    گذر از افسانه
    ادعای رسیدن به هوش عمومی مصنوعی (AGI) تا سال ۲۰۴۵، نه بر پایهٔ علم، که بر اسطوره‌های تکنو-فرهنگی استوار است. این خیال‌پردازی‌ها پژوهش را از مسیر اصلی منحرف می‌کند. ما نیازمند انقلاب کوپرنیکی در علوم شناختی هستیم: به جای تلاش برای شبیه‌سازی مغز انسان با کد، باید بپذیریم که هوش واقعی نیازمند فهم مکانیسم‌های استنتاج فرضی-قیاسی است که هنوز برای ماشین‌ها دست‌نیافتنی باقی مانده‌اند.

    نتیجه‌گیری نهایی
    راه حلِ «داده‌های بیشتر، الگوریتم‌های قوی‌تر» یک توهم خطرناک است. تا زمانی که نتوانیم ماشین‌ها را به پرسیدن «چرا؟» واداریم، هوش مصنوعی عمومی تنها در قلمرو افسانه‌ها خواهد زیست. اگر می‌خواهیم به آینده‌ای روشن بیندیشیم، باید از دامِ کمّی‌گرایی بگریزیم و به کیفیت مرموزِ شناخت انسانی احترام بگذاریم.

    نوشته های مشابه

    یک پاسخ به “به سوی هوش مصنوعی انسانی تر”

    1. باران گفت:

      خیلی مقاله جذاب و آموزنده‌ای بود 👌 خواندن این کتاب می‌تونه دید تازه‌ای نسبت به هوش مصنوعی و کاربردهای انسانی‌تر آن بده 🤖❤️
      تو کلینیک کسب‌وکار
      هم مطلبی خوندم که توضیح می‌داد چطور استفاده هوشمندانه از هوش مصنوعی می‌تونه رشد کسب‌وکارها و تجربه مشتریان رو بهبود بده.https://kasbokarclinic.ir/

    پاسخ دادن به باران لغو پاسخ

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *