آموزش

آموزِش فرایند تسهیل و ساده سازیِ یادگیری یا کسب دانش، مهارت، ارزش، اخلاق، اعتقادات و عادت‌ها است. روش‌های آموزش شامل تدریس، آموزش عملی، داستان گویی، بحث و پژوهش هدایت شده‌است. آموزش غالباً تحت راهنمایی مربیان انجام می‌شود؛ اما فراگیران می‌توانند خود را نیز آموزش دهند. آموزش می‌تواند در شرایط رسمی یا غیررسمی انجام شود و هر تجربه‌ای که تأثیر شکل دهی بر نحوه اندیشه، احساس یا عمل فرد داشته باشد، می‌تواند نوعی آموزش تلقی شود. متودولوژی تدریس را تعلیم و تربیت می‌نامند.

پژوهش

پژوهش یا تحقیق (به انگلیسی: Research) یا گاهی بازجُستَن، (از فعل پژوهیدن به معنای جستجو کردن) یک جستجوی منظم و هدفدار است؛ یعنی مراحلی دارد که باید به ترتیب طی شوند تا به نتیجه و هدف برسد. به این مراحل «روش علمی» می‌گویند.

تعریف

دربارهٔ پژوهش، تعاریف متعددی صورت گرفته‌است و در اکثر کتاب‌های روش تحقیق و پژوهش ابتدا به تعریف آن پرداخته می‌شود. گاه برای تعریف پژوهش به صورت خاص و با جامعه هدفی ویژه بهره برده می‌شود.

فواید پژوهش

پژوهش چون علاوه بر روند سامان مند برای یافت، بازگویی و بازنگری پدیده‌ها و فرضیه هاست، برای استفاده از پدیده‌های موجود در جهت دست یافتن به راهکارهای عملی و فناوری‌ها به کار می‌رود، دارای فواید متعددی خواهد بود. پژوهش در دو بعد، یکی «یافتن پرسش پژوهش» و دیگری «پاسخ دادن به آن» انجام می‌گیرد و دو فایده کلی تولید دانش مقبول یا ابطال دانش غیر مقبول را در پی دارد. همچنین فواید شخصی، منطقه ای و نیز نتایج و اثرات تمدنی برای پژوهش می‌توان برشمرد. 

توسعه

توسعهٔ فناوری، فرآیند کلی اختراع، نوآوری و انتشار فناوری یا فرآیندها است. در اصل، توسعۀ فناوری، اختراع فناوری‌ها (از جمله فرآیندها) و تجاری‌سازی یا انتشار آن‌ها به‌عنوان منبع باز از طریق تحقیق و توسعه (ایجاد فناوری‌های نوپدیدبهبود مستمر فناوری‌ها (که درطی آن اغلب ارزان‌تر می‌شوند) و انتشار فناوری‌ها در سراسر صنعت یا جامعه (که گاهی اوقات شامل تحول‌آفرینی و همگرایی می‌شود) را پوشش می‌دهد. به‌طور خلاصه، توسعۀ فناوری برپایۀ فناوری بهتر و بیشتر است.  

برنامه نویسی

برنامه‌سازی رایانه‌ای یا برنامه‌نویسی رایانه‌ای همان فرایند طراحی و ساخت یک برنامه رایانه‌ای اجراپذیر برای به‌دست‌آوردن یک نتیجه رایانشی خاص، یا انجام یک عمل خاص می‌باشد. برنامه‌نویسی شامل عمل‌هایی مثل: تحلیل، ایجاد الگوریتم‌ها، رخ‌نمانگاری دقت الگوریتم‌ها و مصرف منابع و پیاده‌سازی آن الگوریتم‌ها به یک زبان برنامه‌نویسی انتخاب شده‌است (که معمولاً به آن کدگذاری (coding) گفته می‌شود). کد منبع یک برنامه به یک یا بیش از یک زبان نوشته می‌شود که این زبان برای «برنامه‌نویس» قابل فهم است (به جای کد ماشین که به صورت مستقیم توسط واحد پردازش مرکزی اجرا می‌شود). هدف از برنامه‌نویسی، پیداکردن ترتیبی از دستورالعمل‌ها است که انجام یک عمل را در یک رایانه خودکارسازی می‌کند. این دستورالعمل ها معمولاً برای حل‌کردن یک برنامه داده می شوند و می‌تواند تا حد یک سیستم‌عامل پیچیده توسعه پیدا کنند. بنابراین، یک برنامه‌نویسی حرفه‌ای نیاز به مهارت در چندین موضوع متفاوت دارد که شامل دانش دامنه کاربردی، الگوریتم‌های خاص و منطق صوری است.

برنامه‌نویسی به‌طور خلاصه یعنی تعیین یک سری دستور برای اجرا شدن توسط رایانه به منظور رسیدن به هدفی دلخواه.

تاریخچه

دستگاه‌های قابل برنامه‌ریزی قرن هاست که وجود دارند. در اوایل قرن نهم میلادی، یک ترتیب سنج موسیقی قابل برنامه‌ریزی توسط برادران فارسی بانو موسی اختراع شد که یک دستگاه پخش خودکار فلوت را در کتاب دستگاه‌های مبتکر توصیف کرد. در سال ۱۲۰۶میلادی، مهندس کوردالجزاری یک دستگاه درام قابل برنامه‌ریزی را اختراع کرد که در آن می‌توان از اتوماتیک مکانیکی موسیقی برای پخش ریتم‌های مختلف و الگوهای طبل، از طریق میخ‌ها و کامپ‌ها استفاده کرد. در سال ۱۸۰۱، با تغییر دادن برنامه «ژاکارد»، بافندگی ژاکارد می‌تواند بافتهای کاملاً متفاوتی تولید کند – مجموعه ای از کارتهای کارتن با سوراخهایی که در آنها وجود دارد.

الگوریتم‌های رمزگشایی و رمزگذاری و تحلیل رمز کد نیز قرن‌ها وجود داشته‌است. در قرن نهم میلادی، ریاضیدان عرب، آل کندی، برای رمزگشایی کدهای رمزگذاری شده، الگوریتم رمزنگاری را در «دست نوشته در رمزگشایی پیام‌های رمزنگاری» شرح داد. او اولین توصیف رمز پزشکی را با استفاده از آنالیز فراوانی، اولین الگوریتم رمزگشایی کد، ارائه داد.

اولین برنامه رایانه ای به‌طور کلی به سال ۱۸۴۳ مربوط می‌شود، هنگامی که Ada Lovelace، ریاضیدان، الگوریتمی را برای محاسبه دنباله ای از اعداد Bernoulli منتشر کرد، که قرار است توسط موتور تحلیلی چارلز بابیج انجام شود.

در دهه ۱۸۸۰ هرمان هالریت مفهوم ذخیره داده‌ها را به صورتی که قابل خواندن با دستگاه باشند اختراع کرد. بعداً یک کنترل پنل (افزونه) که به Tabulator Type 190 آن اضافه شده بود اجازه داد که برای مشاغل مختلف برنامه‌ریزی شود و تا اواخر دهه ۱۹۴۰ تجهیزات ضبط واحدی مانند IBM 602 و IBM 604 توسط پنل‌های کنترل به روش مشابهی برنامه‌ریزی شدند. در سال ۱۹۴۹، اولین کامپیوترهای الکترونیکی با همین شیوه و با مفهوم رایانه‌هایی با قابلیت ذخیره برنامه معرفی شدند که در آنها هم برنامه ها و هم داده‌ها به همان شیوه در حافظه کامپیوتر ذخیره و دستکاری می شدند.

کد ماشین زبان برنامه‌های اولیه بود که در مجموعه دستورالعمل‌های دستگاه خاص، غالباً به صورت دودویی نوشته شده‌است. به زودی زبانهای مونتاژ ایجاد شد که به برنامه‌نویس اجازه می‌دهد تا دستورالعمل‌ها را در قالب متن مشخص کند (به عنوان مثال، ADD X، TOTAL)، با اختصار برای هر کد عملیات و نام‌های معنی دار برای مشخص کردن آدرس‌ها است. اما از آنجا که یک زبان مونتاژ چیزی بیش از یک نشان دیگر برای یک زبان ماشین نیست، هر دو ماشین با مجموعه‌های مختلف دستورالعمل نیز دارای زبان‌های مونتاژ متفاوت هستند.

زبان‌های سطح بالا روند تهیه یک برنامه را ساده‌تر و قابل فهم تر و محدودتر به سخت‌افزار زیرین می‌کردند. FORTRAN، اولین زبان سطح پرکاربرد برای اجرای عملی، در سال ۱۹۵۷ منتشر شد [۱۰] و بسیاری از زبان‌های دیگر به زودی توسعه یافتند – به ویژه، COBOL با هدف پردازش داده‌های تجاری و لیپ برای تحقیقات رایانه است.

برنامه‌ها بیشتر با استفاده از کارت‌های پانچ شده یا نوار کاغذی وارد می‌شدند. برنامه عصر رایانه را در عصر کارت پانچ ببینید. در اواخر دهه ۱۹۶۰، دستگاه‌های ذخیره‌سازی داده و پایانه‌های رایانه به اندازه کافی ارزان شدند که می‌توان برنامه‌ها را با تایپ کردن مستقیم به رایانه‌ها ایجاد کرد. ویرایشگرهای متن (خود برنامه‌ها) ساخته شده‌اند که اجازه می‌دهد تغییرات و اصلاحات بسیار آسانتر از کارت‌های سوراخ شده انجام شود.

محبوب‌ترین زبان در برنامه‌نویسی

تعیین اینکه محبوب‌ترین زبان برنامه‌نویسی مدرن کدام است کار بسیار مشکلی است. بعضی از زبان‌ها در کاربردهای خاصی محبوب است و بعضی دیگر مرتباً در نوشتن کاربردهای گوناگون استفاده می‌شود. روش‌های اندازه‌گیری محبوبیت زبان شامل موارد زیر می‌باشد: شمردن تعداد آگهی‌های اشتغال و توجه به یک زبان، تعداد کتاب‌های آموزشی فروخته شده در مورد یک زبان، تخمین تعداد خطوط کد نوشته شده در یک زبان؛ که امروز می‌توان زبان برنامه‌نویسی پایتون و جاوا اسکریپت از محبوب‌ترین زبان‌های برنامه‌نویسی جهان دانستند؛ به‌خصوص پایتون که به دلیل سادگی و کارایی بالا در زمینه‌های مختلف افراد زیادی را به خود جذب کرده‌است. در رده‌های بعدی زبان برنامه‌نویسی سی شارپ هم جایگاه به خصوصی دارد. 

شبکه رایانه ای

شبکهٔ رایانه‌ای (به انگلیسی: Computer network) (کوتاه: شبکه) به اتصال دو یا چند سیستم (مانند کامپیوتر، لپ‌تاپ، و…) با توانایی ارسال و دریافت داده گفته می‌شود. این انتقال داده‌ها می‌تواند با کابل چند رسانه‌ای، کابل نوری یا بیسیم انجام شود. همچنین می‌توانیم منابع داخل شبکه را در دسترس تمامی کاربران درون شبکه قرار دهیم.

شبکه رایانه‌ای باعث تسهیل ارتباط میان کاربران شده و اجازه می‌دهد تا کاربران منابع خود را به اشتراک بگذارند. منابعی مانند فایل‌های داخل شبکه (شامل: اسناد متنی، عکس، فایل صوتی و تصویری و…) و همچنین پرینتر، اسکنر و دستگاه‌های مشابه که داخل شبکه استفاده می‌شوند.

انواع شبکه‌های رایانه‌ای از نظر وسعت:

  • WAN: شبکه محیط گسترده (Wide Area Network)
  • MAN: شبکه محیط کلان‌شهری (Metropolitan Area Network)
  • LAN: شبکه محیط محلی (Local Area Network)
  • PAN: شبکه محیط شخصی (Personal Area Network)
  • WLAN: شبکه محیط محلی بی‌سیم (Wireless Local Area Network)
  • CAN: شبکه محیط پردیس دانشگاه (Campus Area Network)
  • HAN: شبکه محیط خانه (Home Area Network)
  • SAN: شبکه محیط ذخیره‌سازی (Storage Area Network)

انواع شبکه‌های رایانه‌ای از نظر توپولوژی:

ُStar – Bus – Ring – Mesh – Extended Star

انواع شبکه‌های رایانه‌ای از نظر نقش کاربر:

  • کلاینت سرور: سرور عمل سرویس دهی را انجام می‌دهد و کلاینت (مشتری) فقط سرویس می‌گیرد.

هدف

شبکه‌های رایانه‌ای را می‌توان برای اهداف مختلف استفاده کرد:

  • تسهیل ارتباطات: با استفاده از شبکه، افراد می‌توانند به آسانی از طریق رایانامه، پیام‌رسانی فوری، اتاق گفتگو، تلفن، تلفن تصویری و ویدئو کنفرانس، ارتباط برقرار کنند.
  • اشتراک‌گذاری سخت‌افزارها: در یک محیط شبکه‌ای، هر کامپیوتر در شبکه می‌تواند به منابع سخت‌افزاری در شبکه دسترسی پیدا کرده و از آن‌ها استفاده کند؛ مانند چاپ یک سند به وسیله چاپگری که در شبکه به اشتراک گذاشته شده‌است.
  • اشتراک‌گذاری پرونده‌ها، داده‌ها و اطلاعات: در یک محیط شبکه‌ای، هر کاربر مجاز می‌تواند به داده‌ها و اطلاعاتی که بر روی رایانه‌های دیگر موجود در شبکه، ذخیره شده‌است دسترسی پیدا کند. قابلیت دسترسی به داده‌ها و اطلاعات در دستگاه‌های ذخیره‌سازی اشتراکی، از ویژگی‌های مهم بسیاری از شبکه‌های است.
  • اشتراک‌گذاری نرم‌افزارها: کاربرانی که به یک شبکه متصل اند، می‌توانند برنامه‌های کاربردی موجود روی کامپیوترهای راه دور را اجرا کنند. 

هوش مصنوعی

هوش مصنوعی (به انگلیسی: Artificial intelligence) (به اختصار: AI)، هوشی است که توسط ماشین‌ها ظهور پیدا می‌کند، در مقابل هوش طبیعی که توسط جانوران شامل انسان‌ها نمایش می‌یابد. اما پیش از هرچیز باید این موضوع را دانست که کلمه هوش، نشان دهنده امکان استدلال است و اینکه آیا هوش مصنوعی می‌تواند به توانایی استدلال دست یابد یا خیر، خود موضوع اختلاف محققان است. کتاب‌های AI پیشرو، این شاخه را به عنوان شاخه مطالعه بر روی «عوامل هوشمند» تعریف می‌کنند: هر سامانه‌ای که محیط خود را درک کرده و کنش‌هایی را انجام می‌دهد که شانسش را در دستیابی به اهدافش بیشینه می‌سازد. برخی از منابع شناخته شده از اصطلاح «هوش مصنوعی» جهت توصیف ماشینی استفاده می‌کنند که عملکردهای «شناختی» را از روی ذهن انسان‌ها تقلید می‌کنند، همچون «یادگیری» و «حل مسئله»، با این حال این تعریف توسط محققان اصلی در زمینه AI رد شده است.

کاربردهای هوش مصنوعی شامل موتورهای جستجو پیشرفتهٔ وب (مثل گوگل و بینگسامانه توصیه‌گر (که توسط یوتیوب، آمازون و نتفلیکس استفاده شده‌اند)، فهم زبان انسان‌ها (همچون سیری و آمازون الکساخودروهای خودران (مثل تسلاهوش مصنوعی مولد یا خلاقیت محاسباتی (مثل چت‌جی‌پی‌تی یا تولید اثر هنری مانند دال-ئی و میدجرنی) تصمیم‌گیری خودکار و رقابت در بالاترین سطوح سامانه‌های بازی استراتژیک (همچون شطرنج و گو). با بیشتر شدن توانایی ماشین‌ها، وظایفی که نیازمند «هوشمندی» هستند اغلب از تعریف AI برداشته می‌شود، پدیده‌ای که به آن اثر هوش مصنوعی گفته می‌شود. به عنوان مثال، فهم نوری کاراکتر را اغلب از چیزهایی که AI در نظر گرفته می‌شوند مستثنی می‌کنند، چرا که این فناوری تبدیل به فناوری عادی و روزمره‌ای شده است.

هوش مصنوعی در سال ۱۹۵۶ میلادی تبدیل به شاخه‌ای آکادمیک شد و در سال‌های پس از آن چندین موج خوش‌بینی را تجربه کرده و مجدد دچار امواج ناامیدی و کمبود بودجه شده (که به آن «زمستان AI» می‌گویند)، سپس فناوری‌های جدیدی در پی آن آمده و موفقیت و بودجه‌های تحقیقاتی این حوزه مجدداً احیا گشته‌اند. تحقیقات AI رهیافت‌های متفاوتی را از زمان تأسیسش امتحان کرده و آن‌ها را کنار گذاشته است، رهیافت‌هایی چون: شبیه‌سازی مغز، مدل‌سازی حل مسئله توسط مغز انسان، منطق صوری، بانک‌های اطلاعاتی بزرگ دانش و تقلید رفتار جانوران. در اولین دهه‌های قرن ۲۱ میلادی، یادگیری ماشینی که شدیداً از آمار ریاضیاتی بهره می‌برد در این حوزه غلبه داشت و این فناوری اثبات کرد که به شدت موفق است و به حل چندین مسئله چالش‌برانگیز در صنعت و فضای آکادمیک کمک نمود.

شاخه‌های مختلف تحقیقات هوش مصنوعی حول اهداف به‌خصوصی متمرکز بوده و از ابزارآلات خاصی استفاده می‌کنند. اهداف سنتی تحقیقات AI شامل این موارد اند: استدلال، نمایش دانش، برنامه‌ریزی، یادگیری، پردازش زبان طبیعی، ادراک و توانایی در جابجایی و دستکاری اشیاء. هوش جامع (توانایی حل مسائل دلخواه) در میان اهداف بلند مدت این حوزه است. جهت حل چنین مسائلی، محققان AI فنون حل مسئله وسیع و یکپارچه‌ای را شامل این موارد به کار بسته‌اند: جست‌وجو و بهینه‌سازی ریاضیاتی، منطق صوری، شبکه‌های عصبی مصنوعی و روش‌های مبنی بر آمار، احتمالات و اقتصاد. AI همچنین با حوزه‌هایی چون علوم کامپیوتر، روان‌شناسی، زبان‌شناسی، فلسفه و بسیاری از حوزه‌های دیگر مرتبط است.

این شاخه بر این فرض بنا شده است که هوش انسانی «را می‌توان به دقت توصیف نمود، به طوری که می‌توان آن را توسط یک ماشین شبیه‌سازی نمود». این فرض بحث‌های فلسفی را پیرامون ذهن و اخلاقیات خلق موجودات هوشمند برانگیخته است، موجوداتی که دارای هوش شبیه-انسان اند. این مسائل توسط افسانه‌ها، داستان‌های تخیلی و فلسفه از زمان‌های باستان مورد کاوش واقع شده‌اند. ادبیات علمی-تخیلی و آینده‌پژوهی نیز پیشنهاد می‌دهند که AI با پتانسیل و قدرت عظیمی که دارد، ممکن است منجر به ایجاد ریسک وجودی برای بشریت گردد. 

میکروکُنترلر

میکروکُنترلر (به انگلیسی: Microcontroller) گونه‌ای ریزپردازنده است که دارای حافظهٔ دسترسی تصادفی (RAM) و حافظهٔ فقط‌خواندنی (ROM)، تایمر، پورت‌های ورودی و خروجی (I/O) و درگاه ترتیبی (Serial Port پورت سریال) درون خود تراشه است، و می‌تواند به تنهایی ابزارهای دیگر را کنترل کند. به عبارت دیگر یک میکروکنترلر، مدار مجتمع کوچکی است که از یک CPU کوچک و اجزای دیگری مانند تایمر، درگاه‌های ورودی و خروجی آنالوگ و دیجیتال و حافظه تشکیل شده‌است که برای اجرای دستورالعمل های داده شده به یک سیستم بزرگ تر استفاده می شود.آن‌ها معمولا نسبت به رایانه‌ها از انرژی کمتری استفاده می‌کنند. در حالی که رایانه‌ها می‌توانند طیف وسیعی از فعالیت‌های مختلف را انجام دهند، میکروکنترلرها برای انجام کارهای مشخص شده و خاص مناسب هستند.‌

در واقع یک ریزپردازنده درون میکروکنترولر قرار گرفته‌است که با استفاده از آن می‌تواند محاسبات منطقی و حسابی را انجام دهد.

وجود RAM و ROM و پورت‌های I/O در میکروکنترلرها آن‌ها را یک انتخاب ایده‌آل برای کاربردهایی می‌کند که قیمت و اندازه در آن‌ها مهم است. در بسیاری از کاربردها مثل کنترل از راه دور تلویزیون نیازی به محاسبات سنگین در حد یک ۴۸۶ یا حتی ۸۰۸۶ وجود ندارد. در این گونه موارد و بسیاری دیگر از کاربردها فضای مورد استفاده توان مصرفی و قیمت هر واحد مهم تر از قدرت محاسبات است. در این گونه موارد اغلب لازم است تعدادی I/O خوانده شده و بیت‌های مشخصی را خاموش یا روشن کند. به همین دلیل این گونه پردازنده‌ها را (IBP (ITTY-BITTY PROCESSOR نیز می‌نامند.

میکروکنترلرها عموماً برای کاربردهای کوچک طراحی می‌شوند، بنابراین برخلاف ریزپردازنده‌ها در این‌جا مهم‌ترین مسائل، سادگی و مصرف کم توان است.

سابقه

اولین ریزپردازنده های چند تراشه ای، سیستم های چهار فاز AL1 در سال 1969 و Garrett AiResearch MP944 در سال 1970، با چندین تراشه MOS LSI توسعه یافتند. اولین ریزپردازنده تک تراشه ای اینتل 4004 بود که در سال 1971 بر روی یک تراشه MOS LSI عرضه شد. این پردازنده توسط فدریکو فاگین، با استفاده از فناوری MOS دروازه سیلیکونی، همراه با مهندسان اینتل، مارسیان هاف و استن مازور، و مهندس شرکت بوسیکم، ماساتوشی شیما، توسعه داده شد.پس از آن، 4 بیتی اینتل 4040، 8 بیتی اینتل 8008، و 8 بیتی اینتل 8080 قرار گرفتند. همه این پردازنده ها به چندین تراشه خارجی برای پیاده سازی یک سیستم کار نیاز داشتند، از جمله تراشه های حافظه و رابط جانبی. در نتیجه، کل هزینه سیستم چند صد دلار (دهه 1970 آمریکا) بود که کامپیوتری کردن وسایل کوچک را غیرممکن می‌کرد.

شرکت MOS Technology ریزپردازنده های زیر 100 دلاری خود را در سال 1975 معرفی کرد، 6501 و 6502. هدف اصلی آنها کاهش این مانع هزینه بود، اما این ریزپردازنده ها همچنان به پشتیبانی خارجی، حافظه و تراشه های جانبی نیاز داشتند 

رباتیک

رباتیک، شاخه‌ای میان مهندسی و علم است که شامل مهندسی مکانیک، مهندسی برق و علوم رایانه می‌شود. رباتیک شامل طراحی، ساخت، راه‌اندازی و کاربرد ربات‌ها می‌شود. همچنین سامانه‌های رایانه‌ای، کنترل، بازخورد حسگرها و پردازش اطلاعات نیز در این گروه قرار می‌گیرند.

هدف

این فناوریها برای جایگزینی ماشین‌ها با انسان استفاده می‌شود. رباتها می‌توانند در هر موقعیت و برای هر منظوری به کار بروند ولی امروزه بسیاری از آن‌ها در محیط‌های خطرناک، فرایندهای تولید یا مکانهایی که انسان قادر به حیات نیست، استفاده می‌شوند. رباتها می‌توانند به هر شکل و قیافه‌ای باشند ولی بعضی از آن‌ها طراحی می‌شوند تا شبیه انسان به نظر برسند. تلاش می‌شود که رباتهای انسان نما بتوانند راه رفتن، حرف زدن، شناختن و مخصوصاً هر چیزی را که انسان می‌تواند انجام دهد، تقلید کنند.

ایده ایجاد ماشین‌هایی که بتوانند به شکل خودکار کار کنند، به دوران قدیم بازمی گردد ولی تحقیق اساسی در مورد استفاده‌ از رباتها تا قرن بیستم انجام نشده بود. امروزه رباتیک یک حوزه از علم با رشد سریع است، هم‌زمان با ادامه پیشرفتهای تکنولوژی، تحقیق، طراحی و ساخت رباتهای جدید در خدمت اهداف عملی متعددی در حوزه‌های خانگی، صنعتی و نظامی انجام می‌گیرد.

ریشه‌شناسی

کلمه ربات برای اولین بار توسط نویسنده‌ای از اهالی چکسلواکی به نام کارل چاپک و در نمایشنامه‌ای به اسم کارخانه ربات‌سازی روسوم در سال ۱۹۲۰ معرفی شد. کلمه روبات از واژه اسلاوی “روبوتا” به دست آمده‌است که در اصل به معنی کارگر به کار می‌رود. نمایشنامه در مورد یک کارخانه است که آدم‌های مصنوعی به نام ربات‌ها تولید می‌کند؛ موجوداتی که می‌توانند با انسان‌ها اشتباه گرفته شوند و این بسیار مشابه ایده‌های مدرن امروزی در مورد انسان نماها است. کارل چاپک این کلمه را متعلق به خودش نمی‌داند، وی یک نامه کوتاه به قسمت ریشه‌شناسی لغات در فرهنگ انگلیسی آکسفورد نوشته‌است که در آن برادرش جوزف چاپک را به عنوان ابداع‌کننده اصلی این کلمه نام برده‌است.

مطابق فرهنگ انگلیسی آکسفورد، کلمه رباتیک اولین بار در نوشته‌ای توسط آیزاک آسیموف، در قسمتی از یک داستان کوتاه علمی تخیلی به نام «دروغگو» به کار برده شد. این داستان اولین بار در مجله علمی تخیلی استوندینگ چاپ شد. در آن هنگام آسیموف خودش نمی‌دانست که این کلمه به نام او ثبت خواهد شد؛ وی فکر می‌کرد همان گونه که علم و تکنولوژی مربوط به وسایل الکترونیکی را الکترونیک می‌نامند، پس رباتیک به علم و تکنولوژی مربوط به رباتها اشاره خواهد داشت. آسیموف در بعضی از آثارش خاطر نشان می‌کند که اولین کاربرد کلمه رباتیک در داستان کوتاه او به نام «سرگردانی» (مجله علمی تخیلی استوندینگ، مارس ۱۹۴۲) بوده‌است

جوزف انگل‌برگر (Joseph Engelberger) را به علت اینکه اولین شرکت رباتیک دنیا را در سال ۱۹۵۶ تأسیس کرد، پدر علم رباتیک لقب داده‌اند. او با همکاری جرج دوول، اولین ربات صنعتی آمریکا را اختراع کرد. 

مخابرات

مخابرات، انتقال سیگنال‌ها، پیام‌ها، واژه‌ها، نوشته‌ها، تصاویر و صداها و اطلاعات از هر گونه‌ای از راه سیم، امواج رادیویی، نور یا دیگر سامانه‌های مخابراتی است. در زمان‌های گذشته، از کبوتر، فانوس، دود، طبل، سمافوریا (مخابره به وسیله پرچم) و هلیوگراف (مخابره به وسیله نور خورشید) برای ارتباط استفاده می‌شد. در دوران نوین، مخابرات شامل به‌کارگیری انتقال‌دهنده‌های الکترونیکی مانند تلفن، تلویزیون، رادیو یا رایانه است. نخستین مخترعان در زمینه مخابرات آنتونیو میوچی، الکساندر گراهام بل، گوگلیلمو مارکونی و جان لوگی برد هستند. مخابرات بخش مهمی از اقتصاد جهانی است و سود صنعت مخابرات سه درصد محصولات عمده جهان است.

سیستم‌های مخابراتی شامل سه جزء اصلی است:

  1. فرستنده: اطلاعات را به سیگنال قابل‌انتقال تبدیل می‌کند و آن را وارد کانال مخابراتی می‌کند.
  2. کانال مخابراتی: سیگنال را حمل می‌کند و شامل محیط انتقال مانند هوا و فضا، کابل مسی و فیبر نوری و … می‌شود.
  3. گیرنده: سیگنال را از کانال دریافت‌کرده و آن را به اطلاعات قابل استفاده تبدیل می‌کند.

به‌طور مثال دکل رادیویی در ارسال‌های رادیویی، شامل یک رادیوی فرستنده، فضای آزاد به عنوان کانال مخابراتی و رادیوی گیرنده است. معمولاً سامانه‌های مخابراتی دو طرفه هستند، و یک دستگاه واحد، نقش فرستنده و گیرنده را ایفا می‌کند (ترانسیور). مثلاً، تلفن همراه یک دستگاه ترانسیور است. مخابره پیام از راه خطوط تلفن را ارتباط نقطه به نقطه می‌گویند، زیرا میان یک فرستنده و یک گیرنده است. مخابرات از راه ارسال رادیویی را ارتباط پخشی می‌نامند زیرا میان یک فرستنده قوی و گیرنده‌های بسیار است.

شبکه‌های مخابراتی

مجموعه‌ای از فرستنده‌ها، گیرنده‌ها یا ترانسیورها که با هم ارتباط دارند را شبکه می‌نامند. شبکه‌های دیجیتالی دارای یک یا دو مسیریاب هستند که اطلاعات را به کاربر هدایت می‌کنند. یک شبکه ممکن است شامل یک یا دو سوئیچ باشد که ارتباط میان یک یا دو کاربر را برقرار می‌کنند. در هر شبکه، ممکن است تکرارکننده‌ها لازم باشند تا سیگنال را در هنگامی که در فواصل دور منتقل می‌شود، تقویت کنند. این کار برای مقابله با تضعیفی است که مانع از تشخیص سیگنال از نویز می‌شوند. 

نوروروباتیک

نوروروباتیک (Neurorobotics)، علم و فناوری مربوط به سیستم‌های عصبی خودکار تجسم یافته‌است که یک مطالعه ترکیبی از علوم اعصاب، روباتیک و هوش مصنوعی می‌باشد. سیستم‌های عصبی شامل الگوریتم‌های تأثیر گرفته از مغز (به عنوان مثال شبکه‌های اتصال دهنده)، مدل‌های محاسباتی مربوط به شبکه‌های عصبی بیولوژیکی (به عنوان مثال شبکه‌های عصبی اسپایکی و شبیه‌سازی میکرومدارهای عصبی در مقیاس بزرگ) و سیستمهای بیولوژیکی حقیقی (مانند شبکه‌های عصبی داخل و خارج بدن) هستند. چنین سیستم‌های عصبی را می‌توان در ماشین‌هایی با عملکرد مکانیکی یا هر شکل دیگری از تحریک فیزیکی مجسم کرد. این ماشین‌ها شامل روبات‌ها، سیستم‌های پروتزی یا سیستم‌های پوشیدنی (wearable systems)، میکرو ماشین‌ها در مقیاس کوچکتر و تجهیزات و دستگاه‌ها در مقیاس بزرگتر می‌باشد. نوروروباتیک شاخه ای از علوم اعصاب (نوروساینس) ترکیب شده با روباتیک است، که به مطالعه و کاربرد علم و فناوری مربوط به سیستم‌های عصبی خودکار تجسم یافته، مانند الگوریتم‌های الهام گرفته از مغز می‌پردازد. ایده اصلی نوروروباتیک آن است که یک مغز برای روبات در نظر گرفته می‌شود و جسم فیزیکی آن برای انجام عمل در محیط قرار می‌گیرد؛ بنابراین، بسیاری از نوروروبات‌ها موظفند بر خلاف یک محیط شبیه‌سازی شده، در دنیای واقعی عمل کنند.

مقدمه

نوروروباتیک بیانگر یک رویکرد دو طرفه از مطالعه هوش است. علوم اعصاب تلاش می‌کند با بررسی سیستم‌های هوشمند بیولوژیکی، چگونگی عملکرد و اجزای هوش را تعیین کند، در حالی که مطالعه هوش مصنوعی تلاش می‌کند تا با استفاده از روشهای غیر بیولوژیکی یا ابزارهای مصنوعی، هوش را دوباره به وجود بیاورد. نوروروباتیک هردو زمینه مطالعاتی فوق را در بر می‌گیرد، که در آن تئوری‌های بر گرفته شده از سیستم‌های بیولوژیکی در یک محیطی که بر اساس مدل ارائه شده ایجاد شده‌است، آزمایش می‌شوند. موفقیت‌ها و شکست‌های آزمایش یک نوروروبات و مدلی که از آن ساخته شده‌است می‌تواند شواهدی را برای رد یا پشتیبانی از آن تئوری فراهم کند و بینشی برای مطالعه آینده باشد.

دسته‌های اصلی مدل‌های نوروروباتیک

نوروروبات را می‌توان بر اساس هدف ربات به دسته‌های مختلف تقسیم کرد. هر دسته برای پیاده‌سازی یک مکانیسم خاص به منظور مطالعه آن مکانیسم طراحی شده‌است. انواع متداول نوروروبات‌ها مواردی هستند که برای بررسی کنترل حرکتی، حافظه، انتخاب عملکرد و ادراک استفاده می‌شوند. 

نورومورفیک

مهندسی نورومورفیک (neuromorphic) یا به اختصار نورومورفیک که «محاسبات عصبی» نیز نامیده می‌شود، مفهومی است که در اواخر دهه ۱۹۸۰ توسط کارور مید (Carver Mead) توسعه یافته و به معنی استفاده از سیستم‌های مجتمع سازی در مقیاس بسیار بزرگ (VLSI) حاوی مدارهای آنالوگ الکترونیکی، برای تقلید (شبیه‌سازی) معماری عصبی و بیولوژیکی موجود در سیستم عصبی است.

در حال حاضر، اصطلاح نورومورفیک برای توصیف سیستم‌های آنالوگ، دیجیتال، سیستم‌های مختلط آنالوگ / دیجیتال و نرم‌افزارهایی که سیستم‌های عصبی را مدل‌سازی می‌کنند، به کار می‌رود. اجرای محاسبات عصبی در سطح سخت‌افزار را می‌توان با ممریستورهای مبتنی بر اکسید (oxide-based memristors)، ممریستورهای اسپینترونیک (spintronic memories)، سوئیچ‌های آستانه‌ای (threshold switches) و ترانزیستورها، تحقق بخشید.

جنبه اصلی مهندسی نورومورفیک درک چگونگی مورفولوژی نورون‌های ویژه، مدارها، برنامه‌ها و معماری‌های همه‌جانبه محاسبات مدنظر را ایجاد می‌کند، بر نحوه ارائه اطلاعات و بر استحکام در برابر آسیب‌ها تأثیر می‌گذارد، یادگیری و توسعه را ترکیب می‌کند، سازگاری با تغییرات محلی (انعطاف‌پذیری)، و تغییر تکاملی را آسان می‌کند.

مهندسی نورومورفیک مبحثی میان رشته‌ای است که از زیست‌شناسی، فیزیک، ریاضیات، علوم کامپیوتر و مهندسی الکترونیک ایده می‌گیرد تا سیستم‌های عصبی مصنوعی مانند سیستم‌های بینایی، سیستم‌های سر-چشم، پردازنده‌های شنوایی و روبات‌های خودمختار را طراحی کند که معماری فیزیکی و اصول طراحی آن مبتنی بر اصول سیستم عصبی بیولوژیکی است.

مثال‌ها:

در اوایل سال ۲۰۰۶، محققان در جورجیا تکنولوژی یک میدان برنامه پذیر آرایه عصبی را منتشر کردند.

ایده‌گیری از مغز

مهندسی نورومورفیک به دلیل ایده‌هایی که از دانش‌مان در مورد ساختار و عملکرد مغز می‌گیرد، برجسته می‌شود. مهندسی نورومورفیک آنچه را که در مورد عملکرد مغز می‌دانیم به سیستم‌های کامپیوتری ترجمه می‌کند. کار در این زمینه بیشتر بر روی تکرار ماهیت آنالوگ محاسبات زیستی و نقش نورون‌ها در شناخت متمرکز شده‌است.

فرایند زیستی نورونها و سیناپس‌های آن‌ها بسیار پیچیده‌اند، و در نتیجه شبیه‌سازی مصنوعی آن‌ها بسیار مشکل است. یک ویژگی کلیدی مغزهای زیستی این است که تمام پردازش‌ها در نورون‌ها از سیگنال‌های شیمیایی آنالوگ استفاده می‌کنند. این امر ساختن مغز در کامپیوتر را دشوار می‌سازد چرا که نسل فعلی کامپیوترها کاملاً دیجیتال هستند. با این‌حال، ویژگی‌های این بخش‌ها را می‌توان به توابع ریاضی که تقریباً جوهرهٔ عملیات نورون را دریافت می‌کنند، خلاصه کرد.

هدف محاسبات نوروموفیک این نیست که تمام و کمال از مغز و تمام عملکردهای آن تقلید کند، بلکه هدف آن این است که آنچه در مورد ساختار و عملکرد مغز می‌دانیم را استخراج کند تا از آن در سیستم‌های کامپیوتری کاربردی استفاده شود. هیچ سیستم نوروموفیکی ادعا یا تلاش نخواهد کرد که تمام عناصر نورون‌ها و سیناپس‌ها را شبیه‌سازی کند، اما همه آن‌ها به این ایده پایبندند که محاسبات در یک سری عناصر محاسباتی کوچک، شبیه به یک نورون، توزیع شوند.

مغز مصنوعی

مغز مصنوعی (یا ذهن مصنوعی) یک نرم‌افزار یا سخت‌افزار همراه با توانایی‌های شناختی شبیه به مغز حیوان یا انسان است.

تحقیقات در زمینه «مغز مصنوعی» و شبیه‌سازی مغز سه نقش مهم در علم دارد:

  1. شناخت علوم اعصاب، تلاش متخصصین اعصاب برای فهمیدن طریقهٔ کار کردن مغز انسان است.
  2. طبق تجربهٔ فلسفهٔ هوش مصنوعی، ایجاد یک ماشین که توانایی‌های انسان را داشته باشد، وجود دارد.
  3. یک پروژه بلند مدت برای ایجاد ماشین‌های نمایش رفتار مشابه با حیوانات با سیستم عصبی پیچیده مرکزی مانند پستانداران و به ویژه انسان است. هدف نهایی ایجاد یک دستگاه نشانگر رفتار یا همانند هوش انسان هوش عمومی مصنوعی قوی نامیده می‌شود.

یک مثال از مورد اول این است که محققان در دانشگاه استون بیرمنگام انگلستان با استفاده از سلول‌های بیولوژیک و ایجاد خوشه‌های عصبی به درمان‌های جدیدی نورون حرکتی آلزایمر، و بیماری پارکینسونراه یافتند.

اتاق چینی جان سرل، انتقاد هیبرت دریفوس از AI یا بحث راجر پنروه در ذهن جدید امپراتور است. این منتقدان ادعا می‌کنند ماشین‌ها نمی‌توانند آگاهی‌ها و دانش‌های انسان را شبیه‌سازی کنند. یک پاسخ به استدلال‌های آنها این است که فرایندهای بیولوژیکی داخل مغز می‌تواند به هر درجه دقت شبیه‌سازی شود. این پاسخ در اوایل سال ۱۹۵۰ توسط آلن تورینگ در مقاله کلاسیک «ماشین محاسبات و اطلاعات» ساخته شده‌است.

محققان مورد سوم را به‌طور کلی به عنوان هوش عمومی مصنوعی می‌شناسند. با این حال، ری کورزوییل اصطلاح “قوی AI” را ترجیح می‌دهد. در کتاب خود The Singularity is Near، او با استفاده از کامپیوترهای معمولی به عنوان وسیله برای پیاده‌سازی مغزهای مصنوعی (هوش مصنوعی) بر روی شبیه‌سازی کل مغز تمرکز کرده‌است و ادعا می‌کند که اگر به این ترتیب که قدرت کامپیوتر با روند رشد انبساطی ادامه میابد، شبیه‌سازی مغز انسان روی کامپیوتر تا ۲۰۲۵ می‌تواند انجام شود. هنری مارکرام، مدیر پروژه “مغز آبی “ (که در حال تلاش برای شبیه‌سازی مغز است)، ادعای مشابهی در سال ۲۰۲۰ در کنفرانس TED آکسفورد در سال ۲۰۰۹ مطرح کرد.