×

چگونه خاطرات در ذهن ما ذخیره می‌شوند؟
تعمیرات اساسی « ماشین بولتزمن»

  • ۱۷ آذر ۱۴۰۴
  • 17 بازدید
  • ۰
  • جایزه نوبل امسال فیزیک به جان جی هاپفیلد و اورست هینتون تعلق گرفت. جان جی هاپفیلد (JOHN J. HOPFIELD) استاد بازنشسته دانشگاه پرینستون زاده 15 ژوئیه 1933 است که بیشتر به دلیل مطالعاتش در مورد شبکه عصبی در 1982 شناخته شده است.
    تعمیرات اساسی « ماشین بولتزمن»
  • جایزه نوبل امسال فیزیک به جان جی هاپفیلد و اورست هینتون تعلق گرفت.
    جان جی هاپفیلد (JOHN J. HOPFIELD) استاد بازنشسته دانشگاه پرینستون زاده ۱۵ ژوئیه ۱۹۳۳ است که بیشتر به دلیل مطالعاتش در مورد شبکه عصبی در ۱۹۸۲ شناخته شده است.

    اوهمچنین برای توسعه «شبکه هاپفیلد» معروف شده است، او همراه با جفری اورست هینتون (GEOFFRY EVERST HINTON) متولد ۱۹۴۷ در بریتانیا و روان شناس شناختی و دانشمندعلوم رایانه که بیشتر به دلیل کار روی «شبکه‌های عصبی مصنوعی» معروف است، برنده معتبرترین جایزه علمی جهان شد.
    استفاده از «هوش مصنوعی» انتقادات زیادی را نسبت به برنده نوبل فیزیک برانگیخته است.

    جایزه امسال به این دو دانشمند به دلیل اکتشافات بنیادی و ابداعاتی که یادگیری ماشینی با شبکه عصبی مصنوعی را ممکن ساخت، اهدا شده است، آنها از فیزیک برای یافتن الگوهایی در اطلاعات استفاده کردند و با استفاده از فیزیک، شبکه‌های عصبی مصنوعی را آموزش دادند.

    هینتون از ابزارهای فیزیک برای ساختن روش‌هایی استفاده کرد که به پایه‌گذاری «یادگیری ماشینی» قدرتمند امروزی کمک کرده است، یادگیری ماشینی مبتنی بر شبکه‌های عصبی مصنوعی، در حال حاضر انقلابی در علم، مهندسی و زندگی روزمره ایجاد کرده‌اند.

    این دانشمند، یادگیری ماشینی را که برای مدت های طولانی در پژوهش‌هایی از جمله مرتب‌سازی و تجزیه و تحلیل حجم وسیعی از داده‌ها‌ اهمیت داشته است، در پژوهش‌های خود به کار برد.

    دو برنده جایزه نوبل فیزیک امسال از ابزارهای فیزیک برای توسعه روش‌هایی استفاده کرده‌اند که پایه و اساس یادگیری ماشینی قدرتمند امروزی است.

    هاپفیلد یک تداعی معانی(associative memory) ایجاد کرد که می‌تواند تصاویر و انواع دیگر الگوها را در داده‌ها ذخیره و بازسازی کند و در مقابل هینتون روشی را ابداع کرد که می‌تواند به طور مستقل ویژگی‌ها را در داده‌ها پیدا کند و بنابراین کارهایی مانند «شناسایی عناصر خاص در تصاویر» را انجام دهد.

    وقتی سخن از هوش مصنوعی به میان می‌آید، اغلب، منظورمان یادگیری ماشینی با استفاده از شبکه‌های عصبی مصنوعی است.

    این فناوری در اصل از ساختار مغز الهام گرفته شده است، در یک شبکه عصبی مصنوعی، نورون‌های مغز با گره‌هایی نشان داده می‌شوند که ارزش‌های متفاوتی دارند، این گره‌ها از طریق اتصالاتی که می‌توانند به سیناپس‌ها متصل شوند، روی یکدیگر تاثیر می‌گذارند و می‌توانند قوی‌تر یا ضعیف‌تر شوند.

    شبکه به طور مثال با ایجاد ارتباطات قوی‌تر بین گره‌ها به طور همزمان آموزش داده می‌شود.

    برندگان نوبل امسال، کارهای مهمی را با شبکه‌های عصبی مصنوعی از دهه ۱۹۸۰ به بعد انجام داده‌اند، جان هاپفیلد شبکه‌ای را اختراع کرد که از روشی خاص برای ذخیره و بازآفرینی الگوها استفاده می‌کند‌.

    در توصیف این شبکه ، می‌توانیم گره‌ها را به صورت پیکسل تصور کنیم، شبکه هاپفیلد از فیزیک استفاده می‌کند تا ویژگی‌های یک ماده را از روی اسپین اتمی آن توصیف می‌کند. اسپین از خاصیت‌های بنیادی ذرات زیراتمی است که هر اتم را به یک آهنربای کوچک تبدیل می‌کند.

    «شبکه» به طور کلی به روشی معادل «انرژی» در سیستم اسپین موجود در فیزیک توصیف می‌شود و با یافتن مقادیری برای اتصالات بین گره‌ها، آموزش داده می‌شود تا تصاویر ذخیره ‌شده، انرژی کمی داشته باشند.

    هنگامی که شبکه‌هاپفیلد با یک تصویر تحریف شده یا ناقص مواجه می‌شود، به طور روش‌مند از طریق گره‌ها کار‌می‌کند و مقادیر آنها را به روز می‌کند تا انرژی شبکه کاهش یابد، بنابراین، شبکه به صورت گام به گام کار می‌کند تا تصویر ذخیره شده‌ای را پیدا کند که شبیه تصویر ناقصی است که به آن داده شده است.

    جفری هینتون از شبکه هاپفیلد، به عنوان پایه و اساس شبکه جدیدی استفاده کرد که از روش متفاوتی استفاده می‌کند و آن ماشین بولتزمن (Boltzmann machine) است.

    این شبکه می‌تواند یاد بگیرد که عناصر مشخص را در یک نوع داده خاص تشخیص دهد.

    هینتون از ابزارهای «فیزیک آماری» که دانش مربوط به سیستم‌هایی است که از اجزای مشابه ساخته شده‌اند استفاده کرد و در این علم ، با قرار دادن نمونه‌ها در اختیار ماشین، به آن آموزش داده می‌شود.

    ماشین بولتزمن می‌تواند برای طبقه‌بندی تصاویر یا ایجاد نمونه‌های جدید از روی الگوهایی که با آنها آموزش دیده، مورد استفاده قرار گیرد.

    هینتون به شروع توسعه محیرالعقول حوزه یادگیری ماشین کنونی کمک کرده است.

    بسیاری از مردم در مورد چگونگی ترجمه از زبانی به زبان دیگر یا تفسیر تصاویر و انفصال مکالمه‌های مناسب توسط رایانه، تجربیاتی جذاب دارند، این نوع از فناوری با اینکه مدت‌های طولانی برای پژوهشگران مهم بوده است اما شاید کمتر شناخته شده باشد،‌از جمله این کاربردها، می‌توان به مرتب کردن و تحلیل حجم بزرگی از داده ها اشاره کرد.

    گسترش آموزش ماشینی در طی پانزده، بیست سال گذشته به طور چشم گیری افزایش داشته و در آن از ساختاری به نام شبکه عصبی مصنوعی استفاده شده است.

    امروزه وقتی ازهوش مصنوعی حرف می‌زنیم، معمولاً منظور ما این نوع از فناوری است، هر چند رایانه‌ها نمی‌توانند فکر کنند اما ماشین‌ها اکنون می‌توانند کارکردهایی به مانند حافظه و یادگیری را تقلید کنند.

    آموزش ماشینی، با نرم افزار معمولی تفاوت دارد، این روش مانند نوعی از دستورالعمل کار می‌کند، در نرم افزار، داده‌های رسیده، در ضمن یک تشریح واضح، پردازش شده و نتایج را تولید می‌کنند.

    در آموزش ماشینی، رایانه با نمونه می‌آموزد‌ و توانایی آن برای حل مسائل مورد نیاز‌ که گاه بسیار مبهم و پیچیده هستند  تقویت می شود. نمونه آن تفسیر یک عکس به منظور شناسایی شئ درون آن است.

    یک شبکه عصبی مصنوعی با استفاده از ساختار شبکه سراسری، اطلاعات را پردازش می‌کند، این اندیشه در آغاز از تمایل به درک چگونگی کارکرد مغز به وجود آمده است.

    در دهه‌ی ۱۹۴۰، پژوهشگران شروع به استدلال درباره‌  ریاضیاتی کردند که در زمینه شبکه مغزی نورون‌ها و سیناپس‌ها هستند. قطعه دیگر این پازل از روانشناسی آمد.

    فرضیه دانلد هب(DONALD HEBB) ‌ چگونگی «آموزش»‌ ‌وقتی نورون‌ها هنگام کار کردن با هم، یکدیگر را تقویت می‌کنند را شرح می دهد.

    ‌  بعدها این نظرات، با تلاش برای بازتولید چگونگی کارکرد مغز با ساختن شبکه‌های عصبی مصنوعی به عنوان شبیه سازی رایانه‌ای دنبال شد.

    در این فرایندها، عصب‌های مغز به وسیله‌ی گره‌هایی با ارزش‌های مختلف تقلید شدند.

    در این میان ، سیناپس‌ها توسط اتصال بین گره‌هایی که می‌توانند قوی‌تر یا ضعیف‌تر باشند، نمایش داده شدند.

    فرضیه‌ی هب هنوز هم به عنوان یکی از قاعده‌های پایه برای ارتقای شبکه‌های مصنوعی در ضمن فرایندی که تعلیم (TRAINING)  نامیده می‌شود مورد استفاده است.

    در پایان دهه ۶۰ ، برخی نتایج نظری دلسرد کننده، باعث شد تا پژوهشگران به اینکه این شبکه‌های عصبی هرگز نتوانند کاربرد واقعی پیدا کنند، بدگمان شدند.

    در دهه ۱۹۸۰ شبکه‌های عصبی مصنوعی مجدداً مورد توجه قرار گرفت.

       تداعی معانی

    ‌ تصور کنید سعی دارید واژه‌ای غیر معمول را که به ندرت استفاده می‌کنید به خاطر بیاورید.

    با کاوش در حافظه خود ابتدا ممکن است چند واژه‌ی شبیه آن را به زبان آورید تا در نهایت به واژه اصلی برسید.

    این فرایند جست جو بین واژه‌های شبیه به هم ، یادآور «تداعی معنی» است که فیزیکدان هاپفیلد در ۱۹۸۲ کشف کرد.

    شبکه هاپفیلد، طرح‌ها را ذخیره می‌کند و شامل روشی برای بازیابی آنهاست، وقتی این شبکه یک طرح ناکامل و اندکی نامرتب را دریافت می‌کند، با روش خود می‌تواندطرح مرتب شده که بیشترین شباهت را داشته باشد ایجاد کند.

    ‌قبلاً از این روش در فیزیک برای کاوش های مربوط به «زیست شناسی مولکولی» استفاده شده بود، وقتی عصب‌ها با هم کارمی‌کنند، می‌توانند کارکردهای جدید و قوی‌ای داشته باشند که با مشاهده‌ اجزای جدای شبکه به چشم نمی‌آیند.

    از جدایی از پرینستون تا تحقیقات شگفت انگیز

    هاپفیلد در ۱۹۸۰ به این دلیل که علاقه‌مندی‌های پژوهشی‌اش از محدوده کارهای همکاران فیزیکدانش خارج شده بود، از پرینستون رفت.

    در دانشگاه کلتک( مؤسسه فناوری کالیفرنیا ) شغل استادی شیمی و زیست شناسی را قبول کرد، در آنجا او به منابعی دسترسی پیدا کرد که می توانست با انجام آزمایش‌هایی، نظر خود را در مورد شبکه‌های عصبی ‌گسترش دهد اما او‌تحقیقات خود در دانش فیزیک را از یاد نبرد و  برای درک بهتر درباره‌ چگونگی سامانه‌هایی با تعداد زیادی اجزای کوچک که وقتی با هم کار می‌کنند می‌توانند به پدیده‌هایی جدید و قابل توجه ارتقا یابند، تلاش کرد.

    او همچنین از دانش خود در مغناطیس و خصوصا در حوزه «اسپین اتمی» و نقش این ویژگی در تبدیل هر اتم به یک آهنربای کوچک سود برد و توانست شبکه مدلی با گره‌ها و اتصال‌ها بسازد.

    برای این کار، او از فیزیک استفاده کرد تا نحوه گسترش مواد را وقتی اسپین‌ها در یکدیگر نفوذ می‌کنند شرح دهد.

    شبکه‌ای که هاپفیلد ساخت دارای گره‌هایی است که به یکدیگر از طریق اتصال‌هایی با استحکام‌های متفاوت، ملحق شده‌اند و هر گره قادر است یک ارزش منحصر به فرد را ذخیره کند.

    در اولین کارهاپفیلد، این ارزش منفرد مانند پیکسل‌های یک تصویرسیاه و سفید، «صفر» یا «یک» بود.

    هاپفیلد بیان کرد که تمام حالت شبکه، معادل با انرژی موجود در سامانه اسپین است که در فیزیک مطرح می‌شود.

    این انرژی با استفاده از فرمولی به دست می‌آید  که از تمام ارزش‌های گره‌ها و تمام استحکام‌های اتصال‌های بین آنها محاسبه می‌شود.

    شبکه هاپفیلد به وسیله تصویری که به گره‌ها داده(خورانده) می‌شود برنامه‌ریزی می‌شود.

    این گره‌ها، ارزش‌های سیاه یا سفید را می‌پذیرند، این اتصالات شبکه، بعداً با استفاده از فرمول انرژی، تنظیم می‌شوند.

    به این ترتیب، تصویر ذخیره شده، انرژی کمی می‌گیرد، وقتی طرح دیگری به شبکه داده می‌شود، قاعده‌ای برای حرکت بین یک به یک گره‌ها و بررسی آنها – در زمانی که با تغییر ارزش ، شبکه‌انرژی پایینی دارد – وجود دارد. اگر انرژی آن قطع شود پیکسل سیاه با سفید جایگزین می‌شود.

    این روند تا وقتی بهسازی بیشتری ممکن نباشد ، ادامه می‌یابد.وقتی کار به اینجا رسید، شبکه یک بازتولید تصویر اصلی بر روی آنچه که آموخته بود، انجام می‌دهد.

    هاپفیلد و دیگر محققان، گسترش جزئیات چگونگی کاربرد شبکه هاپفیلد، شامل گره‌هایی که توانایی ذخیره سازی هر ارزشی را دارند- و نه فقط صفر و یک – را ادامه دادند.

    به عبارت ساده تر، اگر گره‌ها را پیکسل در نظر بگیریم ، آنها می‌توانند رنگ‌های مختلفی جز سیاه و سفید داشته باشند،اکنون روش‌های بهبود یافته‌ای وجود دارند  که امکان ذخیره سازی تصاویر بیشتر و امکان تمایز قائل شدن بین آنها را که کاملاً مشابه هم هستند ، دارند.

    طبقه بندی با استفاده از فیزیک قرن نوزدهم

    یک کودک می‌تواند حیوانات متفاوتی را نام ببرد، ممکن است گاهی اشتباه کند اما خیلی زود خود را اصلاح خواهد کرد.

    او این کار را بدون اینکه نموداری یا توضیحی از مفاهیم مربوط به گونه‌های جانوران را نگاه کند می‌تواند بیاموزد.

    انسان ها می‌آموزند با دیدن محیط اطراف، یک گربه را تشخیص دهند یا واژه‌ای را درک کنند.

    زمانی که هاپفیلد مقاله خود را به نام «تداعی معانی» منتشر کرد، جفری هینتون در دانشگاه کارنگی ملون در پیتسبورگ آمریکا کار می‌کرد،  وی قبلاً «روانشناسی تجربی» و «هوش مصنوعی» را در انگلستان و اسکاتلند مطالعه کرده بود.

    هینتون از شبکه هاپفیلد شروع کرد و آن را بسط داد تا چیز جدیدی بسازد، او برای این منظور به فیزیک آماری روی آورد.

    فیزیک آماری سامانه‌هایی را تشریح می‌کند که ترکیبی از تعداد زیادی عناصر مشابه ( مانند مولکول‌های درون گاز) هستند.

    ردیابی تمام مولکول‌های جدا از هم در یک گاز، مشکل و حتی غیر ممکن است، اما می‌توان آن را به صورت یک کل در نظر گرفت  و گاز را با تعیین ویژگی‌های قابل مشاهده‌ای چون فشار و دما مشخص نمود.

    روش‌های بالقوه زیادی برای مولکول‌های یک گاز وجود دارد‌ که درون یک گاز با سرعت‌های یکتا حرکت کرده و کماکان در ویژگی‌های گاز به عنوان یک کل شرکت داشته باشند.

    ‌با استفاده از فیزیک آماری، می‌توان احتمال رخداد آنها را محاسبه نمود، برخی از این حالت‌ها احتمال رخداد بیشتری از بقیه دارند که به اندازه انرژی قابل دسترس آنها بستگی دارد.

    این احتمالات توسط فیزیکدان قرن نوزدهم «لودویگ بولتزمن» در یک معادله تشریح شده‌اند.

    شبکه هینتون این معادله را به کار می‌برد، روش این کار در ۱۹۸۵ به نام «ماشین بولتزمن» منتشر شد.‌

    ماشین بولتزمن عموماً با دو نوع متفاوت از گره‌ها کار می‌کند، اطلاعات به یک گره داده می‌شود‌ که به آنها، «گره‌های مرئی» گفته می‌شود.

    گره‌های دیگر از یک لایه‌ی پنهان هستند، ارزش‌ها و اتصالات گره‌های پنهان هم در انرژی شبکه به عنوان یک کل مشارکت دارند.

    ‌این ماشین یک حالت را در هر یک از گره‌ها وارد می‌کند‌ که بر اثر آن، طرح می‌تواند تغییر کند اما ویژگی‌های شبکه به عنوان یک کل بدون تغییر می‌ماند.هر طرح ممکن، یک احتمال ویژه دارد‌ که به وسیله انرژی شبکه مطابق با معادله بولتزمن معین می‌شود، وقتی ماشین متوقف شود، طرح جدیدی را ایجاد خواهد کرد.

    ‌ ماشین بولتزمن می‌تواند‌ نه تنها از دستورالعمل‌ها، بلکه از نمونه‌های معین موجود بیاموزد، این ماشین توسط به روز رسانی ارزش‌ها در اتصالات شبکه، مثل «طرح‌های نمونه» یاد می‌گیرد.

    اطلاعاتی که هنگام یادگیری به گره‌های مرئی وارد می‌شود، وقتی ماشین به کار می‌افتد دارای بالاترین احتمال هستند.

    اگر این طرح مشابه در حین یادگیری تکرار شود، احتمال، برای این طرح بالاتر خواهد رفت.

    یادگیری همچنین روی احتمال بازتولید طرح‌های جدید، اثر خواهد داشت که مشابه نمونه‌های روی ماشین به وقت یادگیری است، یک ماشین بولتزمن آموزش دیده قادر است تا خواص آشنایی دراطلاعات را تشخیص دهد که قبلاً دیده نشده است.

    ماشین بولتزمن قادر است یک نمونه کاملاً جدید را تشخیص دهد، نمونه جدیدی که  به گروهی یافته شده در یادگیری ماده متعلق بوده و آن را از ماده‌ای که مشابه آن نیست متمایز می‌سازد.

    ماشین بولتزمن در شکل اصلی خود، قابلیت‌های لازم برای پاسخگویی سریع را ندارد‌ و زمانی طولانی برای یافتن پاسخ نیاز دارد، هینتون به کاوش در این زمینه ادامه داد و نسخه‌های بعدی با حذف اتصالات بین برخی داده‌ها، کوچکتر شدند، این موضوع باعث بازدهی بیشتر ماشین شد.

    گزینه جدید در جعبه ابزار بشر

    الن مونز ، رئیس کمیته نوبل فیزیک درباره کشف بزرگ برندگان نوبل ۲۰۲۴ می‌گوید: «در فیزیک، از شبکه‌های عصبی مصنوعی در طیف وسیعی از زمینه‌ها مانند توسعه مواد جدید با ویژگی‌های خاص استفاده می‌کنیم، دستاوردهای برندگان فیزیک امسال بر پایه‌های علم فیزیک استوار بوده است، آنها راه کاملا جدیدی را به ما نشان داده‌اند تا از رایانه‌ها برای گرفتن کمک و راهنمایی برای مقابله با بسیاری از چالش‌ها استفاده کنیم، به لطف مطالعات آنها، بشر اکنون یک گزینه جدید در جعبه ابزار خود دارد که می‌توانیم از آن برای اهداف خوب استفاده کنیم، این زمینه، در حال حاضر در مسیر پیشرفت‌ برای ایجاد یک جامعه پایدار و شناسایی مواد کاربردی جدید است، اینکه چگونه در آینده از یادگیری عمیق توسط شبکه‌های عصبی مصنوعی استفاده می‌شود، بستگی به این دارد که ما انسان‌ها چگونه از این ابزارهای فوق‌العاده قدرتمند استفاده می‌کنیم.

    برچسب ها

    نوشته های مشابه

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *