تاریخچه هوش مصنوعی
آشنایی با تاریخچه هوش مصنوعی
تاریخچه هوش مصنوعی و چالش های حوزه هوش مصنوعی
موجودات هوشمندی که توانایی تفکر داشته باشند، در اسناد تاریخی از دوران باستان دیده میشوند.
چنین موجوداتی ابزارهایی با قابلیت داستانگویی هستند.
پس از گذشت قرنها، در کتابهای داستانی همچون فرانکشتاین و R.U.R، نمونههایی از ماشینهای هوشمند دیده شدند.
کاراکترهای موجود در داستانهای مذکور، اولین چالشها را
دربارهی اخلاقیات حوزهی هوش مصنوعی مطرح کردند
و بهنوعی موجب تولد نگرانیها نیز شدند.
نظریه آلن تورینگ
مطالعهی عقل و منطق، به دوران فیلسوفهای عصر باستان مربوط میشود.
ازطرفی منطقی که از ریاضیات نشأت گرفته باشد، بیشتر به آلان تورینگ و نظریهی پردازش او باز میگردد.
تورینگ در نظریهی پردازش میگوید که هر ماشینی با ترکیب علامتهای ریاضی و اعداد صفر و یک،
توانایی شبیهسازی هر عملکرد ممکن را در استنتاج ریاضی دارد.
چنین رویکرد و چشماندازی بهنام نظریهی چرچ-تورینگ شناخته میشود.

توسعهی علومی همچون عصبشناسی و نظریهی اطلاعات و سایبرنتیک،
محققان را به تصور و تحقیق دربارهی احتمال توسعهی یک مغز الکترونیکی واداشت.
تورینگ، پرسش امکانپذیر بودن هوشمندی ماشین را به این پرسش تغییر داد: «آیا یک ماشین میتواند رفتارهای هوشمندانه انجام دهد»؟
اولین مقالهی رسمی که در این حوزه نوشته شد، اثر سال ۱۹۴۳ مککولا و پیتس بود که نورونهای مصنوعی را باتوجه به نظریهی «کامل بودن» تورینگ تعریف کردند.
حوزهی تحقیق پیرامون هوش مصنوعی، در سال ۱۹۵۶ و آزمایشگاهی در کالج دارتموث متولد شد.
جان مککارتی این حوزه را از زیرمجموعهی سایبرنتیک و نظریههای سایبرنتیستهایی همچون نوربرت وینر خارج کرد
و اصطلاح «هوش مصنوعی» بهنوعی توسط او متولد شد.
از پیشگامان و رهبران حوزهی هوش مصنوعی میتوان به آلن نول، هربرت سیمون،
جان مککارتی، ماروین مینسکی و آرتور ساموئل اشاره کرد.
آنها بهکمک دانشجویان خود برنامههایی توسعه میدادند که رسانههای جهان، لقب «عجیب» را برایشان انتخاب میکردند.

کامپیوترهایی که مجهز به اولین برنامههای هوشمند در قرن بیستم بودند،
عملکردهای خارقالعادهای همچون یادگیری استراتژی بازی چکرز و بازی کردن آن،
حل مسائل گوناگون در حوزهی جبر، اثبات نظریههای منطقی و صحبت کردن به زبان انگلیسی داشتند.
تا میانهی دههی ۱۹۶۰، تحقیق پیرامون هوش مصنوعی به یکی از موضوعهای اصلی دنیای فناوری با سرمایهگذاریهای عظیم تبدیل شد.
وزارت دفاع آمریکا یکی از سرمایهگذارهای اصلی پروژههای هوش مصنوعی بود
و آزمایشگاههای متعدد نیز در کشورهای دیگر راهاندازی میشدند.
محققان هوش مصنوعی در آن سالها با خوشبینی بسیار مشغول فعالیت بودند.
هربرت سیمون پیشبینی کرده بود که تا ۲۰ سال بعد، ماشینها توانایی انجام همهی کارهای انسانی را خواهند داشت.
مارتین مینسکی نیز اعتقاد داشت پس از یک نسل، چالش توسعهی هوش مصنوعی کاملا از بین خواهد رفت.

زمستان هوش مصنوعی
تلاش محققان برای توسعهی هوش مصنوعی تا میانهی دههی ۱۹۷۰ به موفقیتهای آنچنانی دست پیدا نکرده بود،
دراینمیان دولتهای ثروتمند همچون آمریکا و بریتانیا نیز بهمرور سرمایهگذاری روی پروژهها را کاهش دادند.
از آن زمان دورانی موسوم به «زمستان هوش مصنوعی» شروع شد؛
زمستانی که پیدا کردن و جذب سرمایه برای پروژههای هوش مصنوعی، بزرگترین چالش آن بود.
با ورود به دههی ۱۹۸۰، اولین موفقیتهای چشمگیر باوجود
سرمایهگذاریهای نهچندان قوی در حوزهی هوش مصنوعی دیده شد.
کامپیوترهایی موسوم به سیستم خبره متولد شدند که توانایی
شبیهسازی دانش و مهارتهای تحلیلی متخصصان انسانی را داشتند.
تا میانهی دههی ۱۹۸۰، بازار هوش مصنوعی به ابعاد میلیارد دلاری رسید
و ژاپن نیز با پروژهی «کامپیوتر نسل پنجم» خود، گواهی بر موفقیت علم ارائه کرده بود.
آمریکا و بریتانیا مجددا به سرمایهگذاری در هوش مصنوعی تشویق شدند،
اما بههرحال باز هم شکست پروژههایی همچون ماشین Lisp،
آیندهی هوش ماشینی را تیره و تار کرد و دورانی طولانیتر بدون سرمایهگذاری شروع شد.
فناوریهایی همچون MOS و VLSI که در فرم CMOS و در میانهی دههی ۱۹۸۰ معرفی شدند،
توسعهی شبکههای عصبی مصنوعی (ANN) را ممکن میکردند.
چنین سختافزارهایی موجب شدند تا بار دیگر استفاده از ماشینها برای فعالیتهای هوشمدانه،
به موضوعی داغ تبدیل شود. دههی ۱۹۹۰ و ابتدای قرن ۲۱،
زمان استفاده از هوش مصنوعی در فعالیتهایی همچون
معدنکاوی داده و تشخیصهای پزشکی بود که بهمرور،
ظرفیتهای علم جدید را اثبات میکرد. گره خوردن هوش مصنوعی با
حوزههایی همچون آمار و اقتصاد و ریاضی در سالهای ابتدایی قرن ۲۱ رخ داد و بهمرور،
دوران تازهای از توسعهی هوش ماشینی، شروع شد.
شاید شکست خوردن قهرمان شطرنج جهان، گری کاسپاروف، از کامپیوتر Deep Blue در سال ۱۹۹۷، جرقهی انفجار هوش مصنوعی بود
دههی شکوفایی
دههی ۲۰۱۰ را میتوان دوران شکوفایی دستاوردهای هوش مصنوعی دانست
که در زندگی روزمرهی بشر بهوضوح حس شدند. در سال ۲۰۱۱،
مسابقهی مشهور Jeopardy تلویزیون آمریکا (مسابقهای با محوریت اطلاعات عمومی) با حضور دو نفر از برترین شرکتکنندهها،
برد راتر و کن جنینگز، برگزار شد و در برابر آنها، کامپیوتر واتسون IBM قرار داشت.
کامپیوتر واتسون با اختلاف بالایی توانست دو قهرمان انسانی را شکست دهد.
در سال ۲۰۱۲، کامپیوترهای سریعتر با تجهیز به الگوریتمهای پیشرفتهتر و دسترسی به منابع دادهای عظیمتر،
پیشرفت در حوزههای درک و یادگیری ماشین را ممکن کردند
رویکردهای یادگیری عمیق هم در همان سال متولد شدند که نیاز به داده را بهعنوان خوراک سیستمهای هوش مصنوعی، افزایش دادند.
منبع: سایت زومیت