نظریه ها و مدلهای هوشمند در چند دهه گذشته
در سال 1948، وینر مقاله فرمانشناسی: نحوه کنترل و برقراری ارتباط با ماشینها را منتشر کرد. این کتاب اگرچه به عنوان یک اثر علمی شناخته میشود، اما سرشار از معادلات پیچیدهای است. به همین دلیل به یکی از پرفروش ترین کتابهای علمی تبدیل شد که نامش در فهرست کتابهای پر فروش نیویورک تایمز نیز وارد شد.
فرمانشناسی (سایبرنتیک)
کتاب فوق کاملا گسترده بود. برخی از مباحث این فرضیه روی مکانیک نیوتن، هواشناسی، آمار، ستارهشناسی و ترمودینامیک متمرکز بودند. این کتاب فرضیه بی نظمی کامل، ارتباطات دیجیتال و حتی حافظه کامپیوترها را پیشبینی میکند. با این حال، کتاب فوق روی مفهوم هوش مصنوعی نیز تاثیرگذار بود. وینر مانند مک کالوچ و پیتز، مغز انسان را با کامپیوتر مقایسه کرد. علاوه بر این او حدس زد كه کامپیوتر میتواند شطرنج بازی كند و سرانجام استادان بزرگ را شکست دهد. او معتقد بود که یک ماشین میتواند همانگونه که بازی میکند، یاد بگیرد و حتی بر این باور بود که کامپیوترها قابلیت خودتکثیری را به دست خواهند آورد. اما سایبرنتیک نیز آرمانشهر کاملی نبود. وینر در درک نواقص کامپیوترها شبیه به نداشتن صفات انسانی (dehumanization) دچار اشتباهاتی شد. او فکر میکرد ماشینها در نهایت این دیدگاه را به وجود خواهند آورد که انسانها موجودات بی مصرفی هستند. این دیدگاه بدون شک افراط گرایانه و اشتباه بود، اما عقاید وینر تاثیر عمیقی بر پیشرفت هوش مصنوعی گذاشت.
داستان اصلی
علاقه جان مک کارتی به کامپیوترها در سال 1948 هنگامی که وی در سمیناری تحت عنوان “مکانیسمهای مغزی در رفتار” شرکت کرد، به اوج خود رسید. سمینار مذکور حول این محور برگزار شد که چگونه ماشینها میتوانند در نهایت فکر کنند. برخی از شرکتکنندگان در این سمینار از پیشگامان فناوریهای نوین بودند که جان فون نویمان، آلن تورینگ و کلود شانون از شاخصترین چهرههای این سمینار بودند. مک کارتی زندگی خود را وقف صنعت کامپیوتر کرد و برای مدت زمان مدیدی در آزمایشگاههای بل به تحقیق و پژوهش مشغول به کار شد. او در سال 1956، به مدت 10 هفته در دانشگاه دارتموث یک پروژه تحقیقاتی انجام داد. او پژوهش خود را “مطالعه روی هوشمصنوعی” نامگذاری کرد. این اولین بار بود که از اصطلاح هوش مصنوعی استفاده شد. همکاران او در این پژوهش عملی استاتید برجسته دانشگاه، ماروین مینسکی، ناتانیل روچستر، آلن نیول، ا. جی سلفریج، ریموند سلیمانوف و کلود شانون بودند. همه آنها با گذشت زمان به یکی از مهرههای کلیدی دنیای هوش مصنوعی تبدیل شدند. اهداف این پژوهش تحقیقاتی بلندپروازانه به شرح زیر بود:
این تحقیق بر اساس این فرضیه انجام شد که هر جنبهای از یادگیری یا هر ویژگی که ریشه آن هوش باشد را میتوان به شکلی توصیف و تشریح کرد که امکان شبیهسازی آن در یک ماشین وجود داشته باشد. تلاش برای پیدا کردن راهحلی برای اینکه ماشینها صحبت کنند، پیدا کردن راهحلی برای شکل دادن به مفاهیم و موضوعات انتزاعی، حل برخی از مشکلاتی که انسانها در پیدا کردن پاسخ برای آنها ناتوان هستند و در نهایت پیادهسازی راهحلی که ماشینها بتوانند عملکرد خود را بهبود بخشند از بخشهای کلیدی این تحقیق بود. مک کارتی در دفاع از پژوهش خود در کنفرانسی که در همین رابطه برگزار شد چنین گفت: «ما فکر میکنیم اگر یک گروه از دانشمندان را به دقت انتخاب کنیم تا یک تابستان روی مفاهیم یاد شده کار کنند، پیشرفت قابل توجهی در حل یک یا چند مشکلات خواهیم داشت. اما این حرف صحیح نیست.»
در این کنفرانس، آلن نیول، کلیف شاو و هربرت سیمون یک برنامه رایانهای بهنام تئوریسین منطق را نمایش دادند را RAND سرنام Research and Development Corporation نشان دادند. الهامبخش اصلی این طرح سیمون (که بعدها موفق شد در سال 1978 برنده جایزه نوبل اقتصاد شود) بود. او هنگامی که مشاهده کرد چگونه کامپیوترها کلماتی را روی یک نقشه برای سیستمهای پدافند هوایی چاپ میکنند به این فکر افتاد که ماشینها میتوانند کاری فراتر از پردازش شمارهها انجام دهند و قادر هستند در درک بهتر تصاویر، شخصیتها و نمادها کمک کنند که در نهایت به دستگاه اجازه فکر کردن را میدهند. با توجه به نظریه منطق، تمرکز بر حل قضایای مختلف ریاضی از طریق اصول ریاضی (Principia Mathematica) بود. برتراند راسل، فیلسوف، ریاضیدان، منطقدان و مورخ انگلیسی برنده جایزه نوبل صلح از جمله افرادی بودند که یک راهحل نرمافزاری جالب توجه ارائه کرد.
پیادهسازی نظریه منطق (Logic Theorist) کار سادهای نبود. نیول، شاو و سایمون از یک مدل IBM 701 که از زبان ماشین استفاده میکرد، برای پیادهسازی این نظریه استفاده کردند. آنها یک زبان سطح بالا بهنام IPL (زبان پردازش اطلاعات) را ایجاد کردند تا به روند برنامهنویسی شتاب بیشتری ببخشند. برای سالهای متمادی زبانی که این افراد خلق کردند، به زبان اصلی هوش مصنوعی تبدیل شد.
سیستم IBM 701 با یک مشکل عمده روبرو بود، این سیستم حافظه کافی برای پیادهسازی نظریه منطق نداشت. این مسئله باعث شد نوآوری دیگری به دنیای فناوری وارد شد این نوآوری جدید پردازش فهرست نام گرفت. این فناوری برای تخصیص پویا و بازپسگیری حافظهای که به شکل پویا یک برنامه در آن اجرا شده بود استفاده میشد.
این نوآوری اجازه داد تا نظریه منطق به عنوان اولین برنامه هوش مصنوعی طراحی و پیادهسازی شود، اما استقبال چندانی از آن به عمل نیامد و برگزاری کنفرانس دارتموث نیز به شکل ناامید کنندهای به پایان رسید، بهطوری که برخی بهکارگیری عبارت “هوش مصنوعی” را مورد انتقاد قرار دادند. پس از این شکست تلخ، محققان سعی کردند راهحلهای جایگزین دیگری همچون پردازش پردازش اطلاعات پیچیده را پیشنهاد دهند، اما نظریه پردازش اطلاعات پیچیده به اندازه هوش مصنوعی جذاب نبودند و این طرح نیز نیمه کاره رها شد. با این وجود مک کارتی، همچنان به ایده خود که پیادهسازی یک ایده نوآوری در هوش مصنوعی بود ادامه داد. در اواخر دهه 50 میلادی، او زبان برنامه نویسی Lisp را توسعه داد که به دلیل سهولت در استفاده از دادههای غیر عددی، اغلب در پروژههای هوش مصنوعی استفاده میشد.
او همچنین مفاهیم یکسری مفاهیم برنامهنویسی همچون بازگشتی، نوعهای پویا و جمعآوری زباله (Garbage Collection ) را ابداع کرد. Lisp هنوز هم در حوزههای روباتیک و برنامههای کاربردی تجاری استفاده میشود. مک کارتی در کنار توسعه زبان، آزمایشگاه هوش مصنوعی MIT را تأسیس کرد. در سال 1961 او مفهوم اشتراک-زمانی کامپیوترها را پیشنهاد داد که تحولی بزرگ در صنعت به وجود آورد. رویکردی که در نهایت به توسعه اینترنت و رایانش ابری منجر شد. چند سال بعد او آزمایشگاه هوش مصنوعی استنفورد را تأسیس کرد. در سال 1969 وی مقالهای بهنام “اتومبیلهای کنترل شده با رایانهها ” را نوشت و شرح داد که چگونه یک شخص میتواند با یک صفحهکلید و یک دوربین تلویزیونی خودرویی را هدایت کند. سرانجام در سال 1971 جایزه تورینگ را بهدست آورد که در اصل جایزه نوبل علوم کامپیوتر محسوب میشود. مک کارتی در سخنرانی سال 2006 خاطرنشان کرد که نسبت به پیشرفت هوشمصنوعی خوشبین است، اما بر این باور است که انسانها در شناسایی اکتشافی خودشان عملکرد خوبی ندارند.
عصر طلایی هوش مصنوعی
از سال 1956 تا 1974 صنعت هوشمصنوعی یکی از داغترین موضوعات دنیای فناوری بود. یک کاتالیزور مهم که در حوزه فناوریهای کامپیوتری رشد بسیار سریعی داشت. سامانههای عظیم به تدریج جای خود را به سامانههایی دادند که بر پایه مدارهای مجتمع کار میکنند و اندازهای به مراتب کوچکتر از نمونههای قبلی داشتند که خود عامل مهمی در پیشرفت و شکوفایی هوشمصنوعی به شمار میرود. دولت فدرال سرمایهگذاری کلانی روی فناوریهای جدید انجام داد که بی ارتباط با اهداف بلندپروازانه برنامه فضایی آپولو و پردازشهای محاسباتی جنگ سرد نبود.
در ارتباط با هوشمصنوعی، منبع اصلی تامین بودجه آژانس پروژههای تحقیقاتی پیشرفته آرپا (ARPA) بود. بودجه لازم برای انجام پروژهها با کمترین سختگیری ممکن تخصیص داده میشد، زیرا هدف این بود که ایدههای نوآورانه به سرعت به بلوغ و موفقیت دست پیدا کنند. جی.سی.آر لیکلیدر یکی از رهبران آرپا شعار “اصل مهم سرمایه انسانی و نه پروژه است” را پیشنهاد داد. بخش اعظمی از بودجه تخصیص یافته به استنفورد، MIT، آزمایشگاههای لینکلن و دانشگاه کارنگی ملون پرداخت میشد. به غیر از شرکت آیبیام بخش خصوصی دخالت کمی در توسعه هوشمصنوعی داشت. لازم به توضیح است که تا اواسط دهه 1950 آیبیام به شکل جدی به مبحث هوش مصنوعی وارد نشده بود و بیشتر روی تجارت کامپیوترهای شخصی متمرکز بود. در واقع علت ورود دیگر هنگام آیبیام به این حوزه ترس از ضرر قابل توجهی بود که به واسطه عدم تمایل مشتریان ممکن بود آینده این شرکت را با چالش جدی روبرو کند. به همین دلیل مدیران آیبیام نمیخواستند هیچگونه ریسکی انجام دهند. به عبارت دیگر، بخش اعظمی از نوآوریها در حوزه هوش مصنوعی به واسطه تحقیقات دانشگاهی انجام میشد. به عنوان مثال، در سال 1959، نیول، شاو و سیمون با تدوین برنامهای تحت عنوان “حلکننده مشکلات عمومی” به دنبال بازتر کردن مرزهای محدود هوش مصنوعی بودند. برنامهای که آنها طراحی کردند از هوش مصنوعی در ارتباط با حل مسائل ریاضی همچون برج هانوی استفاده میکرد.
برنامههای دیگری نیز طراحی شدند که سعی داشتند سطح هوش مصنوعی را بهبود بخشند که موارد زیر بخشی از این تلاشها بود:
SAINT یا Symbolic Automatic Integrator (1961): این برنامه که توسط جیمز اسلاگ محقق MIT ساخته شد برای کمک به حل مسائل حساب و دیفرانسیل ترم اول دانشگاه طراحی شده بود. این برنامه بعدها در برنامههای دیگری که SIN و MACSYMA نامیده میشدند بهروزرسانی شد تا بتواند محاسبات ریاضی پیشرفتهتری را انجام دهد. SAINT در واقع اولین نمونه از یک سیستم خبره بود که شاخه جدیدی در دنیای هوش مصنوعی به وجود آورد که در مقالات آتی با آن بیشتر آشنا خواهیم شد.
ANALOGY (1963): این برنامه نیز توسط توماس ایواتز استاد MIT ساخته شد. این نرمافزار نشان داد که یک کامپیوتر میتواند مشکلات آنالوژی مربوط به آزمونهای ضریب هوشی را حل کند.
STUDENT (1964): نرمافزار فوق توسط دنیل باربو به عنوان تز دکترای هوش مصنوعی زیر نظر ماروین مینسکی ساخته شد. این سیستم از پردازش زبان طبیعی (NLP) برای حل مشکلات جبر دانشآموزان دبیرستانی استفاده میکرد.
ELIZA (1965): جوزف ویزنباوم، استاد MIT این برنامه را طراحی کرد که در مدت زمان کوتاهی به یکی از پدیدههای زمان خود تبدیل شد و حتا رسانهها نیز به بررسی این برنامه پرداختند. نام این برنامه برگرفته از شخصیتی در رمان جورج برنارد شاو play Pygmalion بود که نقش یک روانكاو را داشت. این برنامه به گونهای طراحی شده بود که کاربر میتواست سوالات را تایپ کند و الیزا مشاورهای به او ارائه میکرد. در حقیقت برنامه الیزا اولین chatbot بود که طراحی شد. این برنامه و فناوریهای زیربنایی آن به اندازهای خوب طراحی شدنه بودند که برخی از استفادهکنندگان تصور میکردند که این برنامه یک انسان واقعی است که ویزنباوم در مصاحبهای اعلام کرد از این مسئله نگران است.
Computer Vision (1966): در داستانی افسانهای ماروین مینسکی استادا دانشگاه MIT به دانشجویی بهنام جرالد جی سوسمن گفت که تابستان را صرف متصل کردن یک دوربین به یک کامپیوتر کند و به کامپیوتر یاد دهد مناظری که دیده است را توصیف کند. جرالد جی سوسمن اینکار را انجام داد و سیستمی طراحی کرد که قادر بود الگوهای اساسی را تشخیص دهد. برنامهای که او طراحی کرد اولین برنامه بینایی ماشین لقب گرفت.
Mac Hack(1968): ریچارد دی گرینبلات پروفسور MIT برنامهای ابداع کرد که قادر به شطرنجبازی بود. برنامهای که او طراحی کرد اولین نمونهای بود که موفق شد در یک مسابقه واقعی شرکت کند و رتبه C مسابقات را کسب کرد.
Hearsay I(اواخر دهه 1960): پروفسور راج ردی سیستم تشخیص گفتار مداوم را توسعه داد. برخی از دانشجویان او راهش را ادامه دادند و شرکت دراگون سيستم را تاسیس کردند که به یکی از بزرگترین شرکتها در حوزه فناوری تبدیل شد.
در این بازه زمانی، کتابها و مقالههای دانشگاهی متعددی منتشر شدند که پیرامون مباحثی همچون روشهای بیزی، یادگیری ماشین و بینایی ماشین بودند، اما بهطور کلی دو نظریه اصلی در مورد هوش مصنوعی وجود دارد. یکی از آنها توسط مینسکی هدایت میشد که اعلام میکرد ما به سیستم های نمادین نیاز داریم، این بدان معنی است که هوشمصنوعی باید مبتنی بر منطق کامپیوترهای سنتی یا برنامهریزی شده باشد، یعنی از رویکردهایی همچون If-then-Else استفاده کند.
نظریه دوم توسط فرانک روزنبلات مطرح شد که معتقد بود هوش مصنوعی باید از سیستمهایی مشابه مغز مانند شبکههای عصبی استفاده کند و به جای آنکه بر پایه سلولهای عصبی داخلی کار کند نقش یک گیرنده را داشته باشد. بر پایه این نظریه یک سیستم بر پایه دادههایی که دریافت میکند به مرور زمان نکاتی را یاد میگیرد.
در سال 1957، روزنبلات اولین برنامه کامپیوتری مبتنی بر این نظریه بهنام Mark 1 Perceptron را طراحی کرد. این برنامه از دوربینهایی استفاده میکرد تا تفاوت میان دو تصویر با تفکیکپذیری 20 در 20 پیکسل را تشخیص دهد. Mark 1 Perceptron از دادههایی استفاده میکرد که وزن تصادفی داشتند و بر پایه الگوریتم زیر کار میکرد:
- یک ورودی دریافت کن و آنرا وارد کن و جواب را برای خروجی پرسپترون (perceptron) ارسال کن.
- اگر خروجی و الگو متناظر نیستند، در این حالت
الف) اگر خروجی باید 0 باشد اما 1 است، وزن را 1 را کاهش بده.
ب) اگر خروجی باید 1 باشد اما 0 است، وزن را 1 واحد افزایش بده.
- مراحل 1 و 2 را تکرار کن تا نتایج دقیق شوند.
دستاوردهای فوق به اندازهای در پیشرفت هوشمصنوعی نقش موثر داشتند که نیویورک تایمز در مقالهای فرضیه روزنبلات را ستود و اینگونه نوشت: «اکنون نهادهای نظامی انتظار دارند کامپیوترهایشان بتواند راه بروند، صحبت کنند، مشاهده کنند، مطالبی بنویسند، قابلیت خودتکثیری داشته باشند و از وجود خود آگاه باشند.»
با وجود ارائه طرح پرسپترون هنوز هم مشکلات متعددی وجود داشت. اولین مشکل این بود که شبکه عصبی فقط یک لایه داشت (به دلیل کمبود توان محاسباتی در آن زمان)، تحقیقات مغز هنوز در مراحل اولیه بودند و علم هنوز به درجه بالایی از دانش در ارتباط با علوم شناختی دست پیدا نکرده بود.