هوش مصنوعی و کاربردهای آن

آشنایی با هوش مصنوعی و کاربردهای آن

هوش مصنوعی یا AI فناوری است که کامپیوترها و ماشین ها را قادر می سازد تا هوش انسان و قابلیت های حل مساله را شبیه سازی نمایند. هوش مصنوعی به تنهایی یا در ترکیب با فناوری های دیگری همچون سنسورها، موقعیت یاب جغرافیایی، رباتیک و غیره می تواند وظایفی را انجام دهد که در حالت عادی به هوش و مداخله انسان نیاز دارد. دستیارهای دیجیتال، سیستم مکان یاب جغرافیایی، وسایل خودران و ابزارهای مولد هوش مصنوعی (همچون Chat GPT) مثال های معدودی از هوش مصنوعی هستند که در اخبار روزانه و زندگی روزمره خود درباره آنها می شنویم و با آنها در گیریم.



به عنوان رشته ای از علوم کامپیوتر، هوش مصنوعی شامل یادگیری ماشین و یادگیری عمیق است. این رشته‌ها توسعه الگوریتم‌های هوش مصنوعی را در بر می گیرند که بر اساس فرآیندهای تصمیم‌گیری مغز انسان مدل‌سازی شده‌اند و می‌توانند از داده‌های موجود «یاد بگیرند» و در طول زمان طبقه‌بندی یا پیش‌بینی دقیق‌تری را انجام دهند. هوش مصنوعی نوسانات تبلیغاتی زیادی را پشت سر گذاشته است، اما حتی برای افراد شکاک هم انتشار ChatGPT نقطه عطف چشمگیری بود. آخرین باری که هوش مصنوعی مولد در این وسعت پدیدار شد، به پیشرفت هایی در قوه بینایی کامپیوتر برمی گردد. اما در حال حاضر پیشرفت رو به جلو در مورد پردازش زبان طبیعی (NLP) است. امروزه، هوش مصنوعی مولد نه تنها زبان انسان، بلکه انواع دیگر داده‌ها از جمله تصاویر، ویدئو، کد های نرم‌افزار و حتی ساختارهای مولکولی را می‌تواند یاد بگیرد و ترکیب کند. برنامه های کاربردی برای هوش مصنوعی هر روز در حال افزایش هستند. اما با افزایش تبلیغات در مورد استفاده از ابزارهای هوش مصنوعی در تجارت، بحث و گفتگوها پیرامون اخلاق در هوش مصنوعی و هوش مصنوعی مسئولیت پذیر بسیار حائز اهمیت شده است.

در مورد هوش مصنوعی و عصر جدیدی در منابع انسانی بخوانید

تاریخچه هوش مصنوعی

این ایده  که «یک ماشین می تواند فکر کند» به یونان باستان برمی گردد. اما از زمان ظهور محاسبات الکترونیکی، وقایع و تحولات مهم در تکامل هوش مصنوعی به صورت زیر می باشد:

سال 1950: آلن تورینگ مقاله «ماشین های محاسباتی و هوش» را منتشر نمود. در این مقاله، تورینگ که معروف به شکستن کد انیگمای آلمان در طول جنگ جهانی دوم بود و اغلب به عنوان «پدر علوم کامپیوتر» شناخته می شود، این سوال را مطرح می کند: «آیا ماشین ها می توانند فکر کنند؟» بنابراین او آزمایشی را ارائه می دهد که اکنون به نام «آزمون تورینگ» معروف است، که در آن یک بازجوی انسانی سعی می کند بین پاسخ متنی کامپیوتری و انسانی تمایز قائل شود. از وقتی که این آزمون انجام شده، تحلیل های موشکافانه ای منتشر شده است ولی این موضوع کماکان به عنوان بخش مهمی در حوزه هوش مصنوعی و تا زمانی که از ایده های زبان شناسی استفاده می کند، به عنوان یک مفهوم ماندگار در حوزه فلسفه باقی مانده است.

صحنه ای از فیلم Bladerunner محصول سال 1982 آمریکا به کارگردانی ریدلی اسکات: بازپرس های ویژه با سوالات عمیق سعی در شناسایی ربات ها دارند

سال 1956: جان مک کارتی در اولین کنفرانس هوش مصنوعی در کالج دارتموث اصطلاح «هوش مصنوعی» را ابداع کرد (مک کارتی به توسعه زبان Lisp ادامه داد). در اواخر همان سال، آلن نیوول، جی سی شاو و هربرت سایمون، نظریه پرداز منطقی (Logic Theorist) را ارائه دادند که اولین برنامه نرم افزاری هوش مصنوعی در حال اجرا بود.

سال 1967: فرانک روزنبلات (Frank Rosenblatt)  اولین رایانه مبتنی بر یک شبکه عصبی به نام Mark 1 Perceptron را ساخت که با آزمون و خطا یاد می گرفت. فقط یک سال بعد، ماروین مینسکی و سیمور پیپرت کتابی با عنوان پرسپترون‌ها (Perceptrons) منتشر کردند که نه تنها به کار برجسته ای در مورد شبکه‌های عصبی تبدیل شد بلکه حداقل برای مدتی گفتمان مقابل پروژه‌های تحقیقاتی شبکه‌های عصبی آینده بود.

دهه 1980: شبکه‌های عصبی که از یک الگوریتم پس انتشار (backpropagation algorithm) برای یادگیری خود استفاده می‌کردند، به طور گسترده در کاربردهای هوش مصنوعی مورد استفاده قرار گرفتند.

سال 1995: استوارت راسل و پیتر نورویگ کتاب هوش مصنوعی: رویکردی مدرن (Artificial Intelligence: A Modern Approach) را منتشر کردند، که به یکی از کتاب‌های درسی پیشرو در مطالعه هوش مصنوعی تبدیل شد. در آن کتاب، آنها به چهار هدف یا تعریف بالقوه هوش مصنوعی می پردازند، که سیستم های کامپیوتری را بر اساس تقابل عقلانیت و تفکر با عمل تفکیک می کند.سال 1997: دیپ بلو از IBM در یک مسابقه شطرنج (و مسابقه مجدد) قهرمان شطرنج جهان، گری کاسپاروف را شکست داد.

صحنه مبارزه دیپ بلو و گری کاسپاروف در سال 1997

سال 2004: جان مک کارتی مقاله ای با عنوان هوش مصنوعی چیست؟ (What Is Artificial Intelligence?) چاپ و تعریفی را که اغلب از هوش مصنوعی استناد می شود را پیشنهاد کرد.

سال 2011: IBM Watson قهرمانان برنامه تلویزیونی Jeopardy (Ken Jennings and Brad Rutter) را شکست داد.

صحنه ای عقب افتادن قهرمانان برنامه پرسش و پاسخ از هوش مصنوعی واتسون در سال 2011

سال 2015: ابرکامپیوتر Minwa Baidu از نوع خاصی از شبکه عصبی عمیق به نام شبکه عصبی کانولوشن برای شناسایی و دسته‌بندی تصاویر با دقت بالاتری نسبت به انسان معمولی استفاده می‌کند.

سال 2016: برنامه AlphaGo DeepMind که توسط یک شبکه عصبی عمیق پشتیبانی می شود، لی سدول، قهرمان جهانی بازی Go را در یک مسابقه شکست داد. این پیروزی با توجه به تعداد زیادی حرکات ممکن در طول بازی (بیش از 14.5 تریلیون تنها پس از چهار حرکت!) قابل توجه است. بعداً گوگل DeepMind را به مبلغ 400 میلیون دلار خریداری کرد.

استیصال لی سدول در مقابل آلفاگو در سال 2016

سال 2023: افزایش مدل‌های زبانی کلان (large language models) یا LLM‌ها، مانند ChatGPT، تغییری عظیم در عملکرد هوش مصنوعی و پتانسیل آن برای افزایش ارزش سازمانی ایجاد کرد. با این شیوه‌های جدید هوش مصنوعی مولد، می‌توان مدل‌های یادگیری عمیق را روی مقادیر زیادی داده خام و بدون برچسب از قبل آموزش داد.

انواع هوش مصنوعی: هوش مصنوعی ضعیف در مقابل هوش مصنوعی قوی

هوش مصنوعی ضعیف که با آن هوش مصنوعی ظریف یا باریک (ANI) نیز گفته می شود، یک نوع هوش مصنوعی است که برای انجام وظایف خاص آموزش دیده و بر آنها تمرکز دارد. هوش مصنوعی ضعیف بیشتر هوش مصنوعی که امروز ما را احاطه کرده است به جلو پیش می برد. واژه «باریک» ممکن است توصیف مناسب تری برای این نوع هوش مصنوعی باشد چرا که می تواند هر چیزی باشد به جز صفت ضعیف بودن و برخی از برنامه های بسیار قدرتمند مانند سیری اپل، الکسای آمازون، واتسون و وسایل نقلیه خودران را پشتیبانی می کند.

هوش مصنوعی قوی از هوش عمومی مصنوعی (AGI- artificial general intelligence) و اَبَر هوش مصنوعی (ASI- artificial super intelligence) تشکیل شده است. AGI یا هوش مصنوعی عمومی، شکلی نظری از هوش مصنوعی است که در آن یک ماشین دارای هوشی برابر با انسان است و می تواند با خودآگاهی، از وجود خود مطلع بوده و خودشناسا باشد به طوری که توانایی حل مسائل، یادگیری و برنامه ریزی برای آینده را داشته باشد. ASI که با عنوان ابر هوش نیز شناخته می شود، از هوش و توانایی مغز انسان پیشی می گیرد. در حالی که هوش مصنوعی قوی هنوز کاملاً تئوریک می باشد و تاکنون هیچ نمونه عملی مورد استفاده قرار نگرفته است، این بدان معنا نیست که محققان هوش مصنوعی نیز در حال توسعه آن نباشند. ضمناً، بهترین نمونه های ASI ممکن است داستان های علمی-تخیلی باشد، مانند HAL، دستیار کامپیوتر مافوق بشری و سرکش یا ادیسه فضایی 2001.

یادگیری ماشین چیست و چگونه کار می کند؟

یادگیری ماشین (ML) شاخه‌ای از هوش مصنوعی (AI) و علوم کامپیوتر است که بر استفاده از داده‌ها و الگوریتم‌ها تمرکز دارد تا هوش مصنوعی را قادر ‌سازد از روش یادگیری انسان‌ها، تقلید کند و به تدریج دقت آن را بهبود بخشد.

UC Berkeley سیستم یادگیری الگوریتم یادگیری ماشین را به سه بخش اصلی تقسیم می کند:

  1. فرآیند تصمیم گیری: به طور کلی، الگوریتم های یادگیری ماشین برای پیش بینی یا طبقه بندی استفاده می شود. بر اساس داده های ورودی، که می توانند دارای برچسب یا بدون برچسب باشند، این الگوریتم به طور تقریبی الگویی را در داده ها ایجاد می کند.
  2. تابع خطا: یک تابع خطا توان پیش بینی مدل را ارزیابی می کند. اگر نمونه های شناخته شده وجود داشته باشد، تابع خطا می تواند مبنایی برای مقایسه دقت ارزیابی مدل داشته باشد.
  3. فرآیند بهینه سازی مدل: اگر مدل بتواند با مجموعه نقاطِ آموزشی داده ها تناسب بهتری داشته باشد، آنگاه اختلاف بین نمونه شناخته شده و مدل تخمینی تعدیل و کاهش می یابند. الگوریتم، این فرآیند تکراری یعنی «ارزیابی و بهینه سازی» را مدام تکرار می کند و وزن ها را به طور مستقل تا رسیدن به دقت نهایی به روزرسانی می نماید.

روش های یادگیری ماشین

مدل های یادگیری ماشینی به سه دسته اصلی تقسیم می شوند:

یادگیری ماشینی با ناظر: یادگیری با ناظر که با عنوان یادگیری ماشینی نظارت شده نیز شناخته می شود، با استفاده از مجموعه داده های برچسب گذاری شده برای آموزش الگوریتم ها جهت طبقه بندی داده ها یا پیش بینی دقیق نتایج، تعریف می شود. همانطور که داده های ورودی به مدل وارد می شود، مدل دقت خود را تا زمانی که برازش مناسبی انجام شود، تنظیم می کند. این کار به عنوان بخشی از فرآیند راستی آزمایی متقاطع رخ می دهد (برای حصول اطمینان از اینکه مدل از برازش بیش از حد یا برازش ناقص اجتناب کند). یادگیری تحت ناظر به سازمان ها کمک می کند تا انواع مسائل دنیای واقعی را حل کنند، مانند طبقه بندی هرزنامه ها در یک پوشه جداگانه از صندوق ورودی ایمیل شما. برخی از روش‌های مورد استفاده در یادگیری نظارت شده عبارتند از: شبکه‌های عصبی، رگرسیون خطی، رگرسیون لجستیک، جنگل تصادفی و ماشین بردار پشتیبان (SVM).

یادگیری ماشینی بدون ناظر: یادگیری بدون ناظر، که به عنوان یادگیری ماشین بدون نظارت نیز شناخته می شود، از الگوریتم های یادگیری ماشین برای تجزیه و تحلیل و خوشه بندی مجموعه داده های بدون برچسب (زیر مجموعه هایی به نام خوشه ها) استفاده می کند. این الگوریتم ها، الگوهای پنهان یا گروه بندی داده ها را بدون دخالت انسان کشف می کنند. توانایی این روش برای کشف شباهت‌ها و تفاوت‌های موجود در اطلاعات، آن را برای تجزیه و تحلیل داده‌های اکتشافی، استراتژی‌های فروش متقابل، بخش‌بندی مشتری و تشخیص تصویر و الگو ایده‌آل می‌کند. همچنین برای کاهش تعداد ویژگی های یک مدل از روش فرآیند کاهش ابعاد (dimensionality reduction) استفاده می شود. تجزیه و تحلیل مؤلفه اصلی (Principal component analysis) و تجزیه ارزش منفرد (singular value decomposition) دو رویکرد رایج برای این کار هستند. سایر الگوریتم‌های مورد استفاده در یادگیری بدون ناظر شامل شبکه‌های عصبی، خوشه‌بندی میانگین های k و روش‌های خوشه‌بندی احتمالی می باشند.

یادگیری با شبه ناظر: یادگیری نیمه‌نظارتی یا با شبه ناظر، حالت بینابینی میان یادگیری با ناظر و بدون ناظر است. در طول آموزش، از مجموعه ای کوچک از داده های برچسب‌دار برای طبقه‌بندی و استخراج ویژگی مجموعه ای از داده بزرگ‌تر و بدون برچسب استفاده می‌شود. یادگیری نیمه نظارتی می تواند مشکل کمبود داده های برچسب گذاری شده و پرهزینه را برای الگوریتم یادگیری نظارت شده حل نماید.

یادگیری ماشینی تقویتی

یادگیری ماشینی تقویتی یک مدل یادگیری ماشینی است که شبیه به یادگیری نظارت شده است، اما الگوریتم با استفاده از داده های نمونه آموزش داده نمی شود. این مدل با استفاده از آزمون و خطا یاد می گیرد و دنباله ای از نتایج موفقیت آمیز برای ایجاد بهترین توصیه یا خط مشی برای یک مساله خاص، تقویت می شود. سیستم IBM Watson که برنده برنامه تلویزیونی Jeopardy در سال 2011 شد، مثال خوبی است. این سیستم از یادگیری تقویتی استفاده می‌کرد تا یاد بگیرد که چه زمانی باید برای پاسخ (یا سؤالی که مطرح شده بود)، کدام مربع را روی تخته انتخاب کند و چقدر شرط بندی نماید.

الگوریتم های رایج یادگیری ماشین

تعدادی از الگوریتم های رایج یادگیری ماشین به شرح زیر می باشند:

شبکه های عصبی: شبکه های عصبی عملکرد مغز انسان را شبیه سازی می کنند ولی با تعداد زیادی گره پردازشی. شبکه های عصبی در تشخیص الگوها خوب هستند و نقش مهمی در کاربردهایی چون ترجمه زبان طبیعی، تشخیص تصویر، تشخیص گفتار و ایجاد تصویر دارند.

رگرسیون خطی: این الگوریتم برای پیش بینی مقادیر عددی بر اساس رابطه خطی بین مقادیر مختلف بکار می رود. به عنوان مثال، این تکنیک می تواند برای پیش بینی قیمت خانه بر اساس داده های تاریخی و گذشته نگر برای منطقه ای خاص مورد استفاده قرار گیرد.

رگرسیون لجستیک: این الگوریتم یادگیری با ناظر برای متغیرهای واکنشی طبقه‌ای (مانند پاسخ‌های «بله/خیر» به سؤالات) پیش‌بینی انجام می دهد و می توان از آن برای برنامه هایی مانند طبقه بندی هرزنامه ها و کنترل کیفیت در خط تولید استفاده نمود.

خوشه بندی: الگوریتم های خوشه بندی با استفاده از یادگیری بدون ناظر، می توانند الگوهای موجود در داده ها را شناسایی کنند تا بتوان آنها را گروه بندی نمود. رایانه ها می توانند با شناسایی داده هایی که انسان ها نادیده گرفته اند، به دانشمندان داده کمک کنند.

درخت تصمیم: درخت تصمیم را می توان هم برای پیش بینی مقادیر عددی (رگرسیون) و هم برای طبقه بندی داده ها استفاده کرد. درخت تصمیم از یک دنباله شاخه بندی (branching sequence) از تصمیمات مربوطه استفاده می کند که می تواند با یک نمودار درختی نمایش داده شود. یکی از مزایای درخت تصمیم این است که بر خلاف جعبه سیاه اعتبارسنجی و ارزیابی آنها آسان است.

جنگل‌های تصادفی: در یک جنگل تصادفی، الگوریتم یادگیری ماشین یک مقدار یا دسته را با ترکیب نتایج تعدادی درخت تصمیم پیش‌بینی می‌کند.

مزایا و معایب الگوریتم های یادگیری ماشینی

با توجه به بودجه شما و میزان سرعت و دقت مورد نیاز، هر نوع الگوریتم (با ناظر، بدون ناظر، نیمه نظارتی یا تقویتی) مزایا و معایب خاص خود را دارد. به عنوان مثال، الگوریتم های درخت تصمیم هم برای پیش بینی مقادیر عددی (مسائل رگرسیون) و هم برای دسته بندی داده ها استفاده می شود. درختان تصمیم از یک دنباله شاخه ای از تصمیمات مرتبط استفاده می کنند که ممکن است با یک نمودار درختی نشان داده شود. مزیت اصلی درختان تصمیم این است که اعتبارسنجی و ارزیابی آنها آسانتر از شبکه عصبی است ولی خبر بد این است که آنها می توانند ناپایدارتر از سایر پیش بینی کننده های تصمیم باشند.

به طور کلی، یادگیری ماشینی مزایای زیادی دارد که کسب و کارها می توانند از آنها بهره برداری کنند. یادگیری ماشینی الگوها و روندها را در حجم عظیمی از داده‌ها که ممکن است انسان اصلاً آنها را تشخیص ندهد، شناسایی می‌کند. این تجزیه و تحلیل به مداخله انسانی کمی نیاز دارد و فقط لازم  است مجموعه داده مورد نظر در اختیار سیستم قرار گیرد و خود سیستم با یادگیری ماشینی، الگوریتم‌ها را گرد‌آوری و اصلاح خواهد کرد و به مرور زمان با داده‌های ورودی بیشتر بهبود می‌یابد. مشتریان و کاربران می‌توانند از تجربه شخصی‌تری نیز لذت ببرند، زیرا مدل با هر تجربه‌ای با آن شخص، چیزهای بیشتری می‌آموزد.

از جنبه منفی، یادگیری ماشینی به مجموعه داده‌های آموزشی بزرگی نیاز دارد که دقیق و بی‌طرفانه باشند. یادگیری ماشینی نیز بسته به ورودی ممکن است مستعد خطا باشد. با یک نمونه بسیار کوچک، سیستم می تواند یک الگوریتم کاملاً منطقی تولید کند که کاملاً اشتباه یا گمراه کننده است. برای جلوگیری از اتلاف بودجه یا نارضایتی مشتریان، سازمان‌ها باید تنها زمانی به پاسخ‌ها عمل کنند که اعتماد بالایی به خروجی وجود داشته باشد.

یادگیری عمیق در مقابل یادگیری ماشینی و در مقابل شبکه های عصبی

از آنجایی که یادگیری عمیق و یادگیری ماشین به جای یکدیگر مورد استفاده قرار می گیرند، توجه به تفاوت های ظریف بین این دو ارزشمند است. یادگیری ماشینی، یادگیری عمیق و شبکه های عصبی همگی زیر شاخه های هوش مصنوعی هستند. با این حال، شبکه های عصبی در واقع زیر شاخه ای از یادگیری ماشینی هستند و یادگیری عمیق زیر شاخه ای از شبکه های عصبی است.

هم الگوریتم‌های یادگیری ماشین و هم الگوریتم‌های یادگیری عمیق با استفاده از شبکه‌های عصبی از حجم عظیم داده‌ها برای یادگیری استفاده می‌کنند. این شبکه‌های عصبی ساختارهای برنامه‌ ریزی شده ای هستند که بر اساس فرآیندهای تصمیم‌گیری مغز انسان مدل‌سازی شده‌اند و از لایه‌هایی از گره‌های به هم پیوسته تشکیل شده‌اند که ویژگی‌هایی را از داده‌ها استخراج و در مورد این که داده‌ها چه چیزی را نشان می‌دهند، پیش‌بینی هایی انجام می دهند. تفاوت یادگیری عمیق و یادگیری ماشین در نحوه یادگیری الگوریتم است. یادگیری ماشینی «عمیق» می‌تواند از مجموعه داده‌های برچسب‌گذاری‌شده، که با عنوان یادگیری نظارت‌شده (supervised learning) نیز شناخته می‌شود، برای بازخورد به خود الگوریتم استفاده می کند، اما لزوماً به یک مجموعه داده برچسب‌گذاری شده نیاز ندارد. فرآیند یادگیری عمیق می‌تواند داده‌های بدون ساختار را به شکل خام (مثلاً متن یا تصاویر) دریافت و می‌تواند به طور خودکار بر مبنای ویژگی‌هایی، دسته‌های مختلف داده‌ها را از یکدیگر متمایز ‌کند. این امر برخی از مداخلات انسانی ضروری را حذف می کند و امکان استفاده از مقادیر زیادی داده را فراهم می کند. همانطور که لکس فریدمن (Lex Fridman) اشاره می کند، می توان یادگیری عمیق را با عنوان «یادگیری ماشین مقیاس پذیر» (scalable machine learning) در نظر گرفت.

تفاوت یادگیری ماشین کلاسیک و یادگیری عمیق

انواع شبکه‌های عصبی که یادگیری ماشینی و یادگیری عمیق از آنها استفاده می‌کنند در میزان دخالت انسان با هم تفاوت دارند. الگوریتم‌های کلاسیک یادگیری ماشین با شبکه‌های عصبی از یک لایه ورودی و یک یا دو لایه پنهان و یک لایه خروجی استفاده می‌کنند. به طور معمول، این الگوریتم‌ها محدود به یادگیری فرد ناظر هستند و داده‌ها باید توسط متخصصان انسانی سازماندهی یا برچسب‌گذاری شوند تا الگوریتم بتواند ویژگی‌هایی را از داده‌ها استخراج کند. یادگیری ماشینی کلاسیک یا «غیرعمیق» برای یادگیری بیشتر به مداخله انسان وابسته است. متخصصان انسانی مجموعه ای از ویژگی ها را برای درک تفاوت بین داده های ورودی تعیین می کنند که معمولاً برای یادگیری به داده های ساختاریافته بیشتری نیاز دارند.

شبکه‌های عصبی یا شبکه‌های عصبی مصنوعی (artificial neural networks)، از لایه‌های گره دار تشکیل شده‌اند که شامل یک لایه ورودی، یک یا چند لایه پنهان و یک لایه خروجی است. هر گره یا نورون مصنوعی به دیگری متصل می شود و دارای وزن و آستانه مربوطه است. اگر خروجی هر گره بالاتر از مقدار آستانه مشخص شده باشد، با فعال شدن گره، داده ها به لایه بعدی شبکه ارسال می شوند. در غیر این صورت، هیچ داده ای توسط آن گره به لایه بعدی شبکه منتقل نمی شود. کلمه «عمیق» در یادگیری عمیق فقط به تعداد لایه های یک شبکه عصبی اشاره دارد. یک شبکه عصبی که از بیش از سه لایه تشکیل شده است (شامل ورودی و خروجی) را می توان یک الگوریتم یادگیری عمیق یا یک شبکه عصبی عمیق در نظر گرفت. شبکه عصبی که فقط سه لایه دارد، یک شبکه عصبی اولیه می باشد. یادگیری عمیق و شبکه‌های عصبی باعث تسریع پیشرفت در زمینه‌هایی مانند بینش رایانه، پردازش زبان طبیعی و تشخیص گفتار می‌شوند. الگوریتم‌های یادگیری عمیق از شبکه‌های عصبی عمیق استفاده می‌کنند یعنی شبکه‌هایی که از یک لایه ورودی، سه یا بیشتر (اما معمولاً صدها) لایه پنهان و یک چیدمان خروجی تشکیل شده‌اند. این لایه‌های چندگانه، یادگیری بدون فرد ناظر را امکان‌پذیر می‌کنند و استخراج ویژگی‌ها از مجموعه داده‌های بزرگ را بدون برچسب و بدون ساختار به صورت خودکار انجام می‌دهند. از آنجایی که به مداخله انسانی نیاز ندارد، یادگیری عمیق اساساً یادگیری ماشین را مقیاس پذیر می کند.

ساختار شبکه عصبی عمیق

ظهور مدل های مولد هوش مصنوعی

هوش مصنوعی مولد (Generative AI) به مدل‌های یادگیری عمیق اطلاق می‌شود که می‌توانند داده‌های خام را بگیرند (مثلاً تمام ویکی‌پدیا یا آثار جمع‌آوری‌شده رامبراند) و از آنها «یاد بگیرند» تا در صورت نیاز خروجی‌های آماری احتمالی تولید کنند. در سطح بالاتر، مدل‌های مولد نمایش ساده‌شده‌ای از داده‌های آموزشی خود را رمزگذاری می‌کنند و از آن برای ایجاد یک اثر جدید و مشابه (ولی نه یکسان) با داده‌های اصلی استفاده می‌کنند. مدل های مولد سال هاست که برای تجزیه و تحلیل داده های عددی در آمار استفاده می شوند. با این حال، ظهور یادگیری عمیق، گسترش آنها را به تصاویر، گفتار و دیگر انواع داده های پیچیده ممکن کرد. در میان اولین مدل‌های هوش مصنوعی جهت دستیابی به یک انطباق کلی، مدل های رمزگذاری خودکار متغیر (variational autoencoders) یا VAE وجود داشت که در سال 2013 معرفی شد. مدل های رمزگذاری خودکار متغیر اولین مدل‌های یادگیری عمیق بودند که به طور گسترده برای تولید تصاویر و گفتار واقعی مورد استفاده قرار گرفتند.

آکاش سریواستاوا (Akash Srivastava)، کارشناس هوش مصنوعی در آزمایشگاه هوش مصنوعی MIT-IBM Watson می گوید: «VAEها با آسان‌تر کردن مقیاس‌پذیری مدل‌ها، دروازه‌های مدل‌سازی مولد عمیق را گشودند. بسیاری از آنچه امروز به عنوان هوش مصنوعی مولد می شناسیم از اینجا شروع شد. نمونه های اولیه این مدل ها، از جمله GPT-3، BERT، یا DALL-E 2، نشان داده اند که چه کارهایی امکان پذیر است. در آینده، مدل‌ها برای کار بر روی مجموعه گسترده‌ای از داده‌های بدون برچسب آموزش داده می‌شوند که می‌توانند برای کارهای مختلف با حداقل نیاز به تنظیم دقیق مورد استفاده قرار گیرند. سیستم‌هایی که وظایف خاصی را در یک حوزه خاص اجرا می‌کنند، جای خود را به سیستم‌های هوش مصنوعی گسترده‌ای می‌دهند که به طور کلی‌تری یاد می‌گیرند و در میان حوزه ها و مسائل کار می‌کنند. مدل‌های بنیادی که بر روی مجموعه داده‌های بزرگ و بدون برچسب آموزش دیده‌اند و برای طیفی از برنامه‌ها به‌خوبی تنظیم شده‌اند، محرک این تغییرات هستند. در مورد آینده هوش مصنوعی، زمانی که صحبت از هوش مصنوعی مولد به میان می آید، پیش بینی می شود که مدل های پایه و بنیادی به طور چشمگیری پذیرش هوش مصنوعی را در سازمان ها تسریع خواهند کرد. کاهش الزام به برچسب‌گذاری، کار را برای کسب‌وکارها آسان‌تر می‌کند و اتوماسیون بسیار دقیق و کارآمد مبتنی بر هوش مصنوعی، شرکت‌های بسیار بیشتری را قادر خواهد ساخت تا هوش مصنوعی را در طیف وسیع‌تری از موقعیت‌های حیاتی مأموریت های خود به کار گیرند.

کاربردهای هوش مصنوعی

امروزه برنامه های کاربردی متعددی در دنیای واقعی برای سیستم های هوش مصنوعی وجود دارد. در زیر برخی از رایج ترین مواردی که استفاده می شود تشریح شده است:

تشخیص گفتار که با نام تشخیص خودکار گفتار (ASR- automatic speech recognition)، تشخیص گفتار کامپیوتری (computer speech recognition)، یا گفتار به متن (speech-to-text) شناخته می شود، از NLP برای تبدیل گفتار انسان به نوشتار استفاده می کند. بسیاری از دستگاه‌های تلفن همراه برای انجام جستجوی صوتی (مثلاً Siri) تشخیص گفتار را در سیستم‌های خود گنجانده‌اند یا دسترسی بیشتری در مورد ارسال پیامک به زبان انگلیسی یا بسیاری از زبان‌های پرکاربرد فراهم می‌کنند.

خدمات مشتری رابط های مجازی آنلاین و چت بات ها جایگزین ارتباط انسان ها با مشتریان می شوند. آن‌ها به سؤالات متداول و پرتکرار (FAQ) درباره موضوعاتی مانند حمل و نقل پاسخ می‌دهند، یا توصیه‌های شخصی‌سازی شده، محصولات پر فروش یا اندازه‌های پیشنهادی برای کاربران را ارائه می‌دهد و طرز فکر ما را در مورد تعامل با مشتری در وب‌سایت‌ها و پلتفرم‌های رسانه‌های اجتماعی تغییر می‌دهد. به عنوان مثال می‌توان به ربات‌های پیام‌رسان در سایت‌های تجارت الکترونیک با رابط های مجازی، برنامه‌های پیام‌رسانی مانند Slack و Facebook Messenger و کارهایی که معمولاً توسط دستیاران مجازی و دستیارهای صوتی انجام می‌شود، اشاره کرد.

بینش کامپیوتر (Computer vision) مصنوعی رایانه‌ها و سیستم‌ها را قادر می‌سازد تا اطلاعات معنی‌داری را از تصاویر دیجیتال، ویدیوها و سایر ورودی‌های بصری استخراج کنند و بر اساس آن ورودی‌ها، می‌توانند اقدام کنند. توانایی این برنامه در ارائه توصیه ها، آن را از سیستم تشخیص تصویر (image recognition) متمایز می کند. بینش کامپیوتر مبتنی بر شبکه های عصبی کانولوشنال دارای کاربردهایی در برچسب گذاری عکس در رسانه های اجتماعی، تصویربرداری رادیولوژی در پزشکی و خودروهای خودران در صنعت خودروسازی می باشند.

زنجیره تامین (Supply chain) روباتیک تطبیقی (Adaptive robotics) بر روی اطلاعات دستگاه اینترنت اشیا (IoT) و داده های ساختاریافته و بدون ساختار برای تصمیم گیری مستقل عمل می کند. ابزار NLP می تواند گفتار انسان را درک کند و به آنچه به آنها گفته می شود واکنش نشان دهد. تحلیل پیشگویانه (Predictive analytic) برای پاسخگویی به تقاضا، موجودی و بهینه سازی شبکه، تعمیر و نگهداری پیشگیرانه و تولید دیجیتال بکار می رود. الگوریتم‌های جستجو و تشخیص الگو (که دیگر فقط پیش‌بینی صرف نیستند، بلکه سلسله مراتبی هستند) داده‌های زمان واقعی را تجزیه و تحلیل و به زنجیره‌های تامین کمک می‌کنند تا به هوش افزوده حاصل از ماشین واکنش نشان دهند و در عین حال دید و شفافیت فوری را فراهم نمایند.

پیش بینی آب و هوا: مدل‌های آب و هوایی که رسانه ها برای پیش‌بینی دقیق به آن تکیه می‌کنند شامل الگوریتم‌های پیچیده‌ای است که روی ابررایانه‌ها اجرا می‌شوند. تکنیک‌های یادگیری ماشینی این مدل‌ها را کاربردی‌تر و دقیق‌تر کرده اند.

تشخیص ناهنجاری: مدل‌های هوش مصنوعی می‌توانند مقادیر زیادی داده را بررسی کنند و نقاط داده غیرمعمول را در یک مجموعه داده کشف نمایند. این ناهنجاری ها می توانند آگاهی را در مورد تجهیزات معیوب، خطای انسانی یا نقض امنیت افزایش دهند.

در پست بعدی به کارکردهای هوش مصنوعی در مدیریت منابع انسانی خواهیم پرداخت

منابع

Berkeley, U. (n.d.). https://ischoolonline.berkeley.edu/blog/what-is-machine-learning/.

https://www.ibm.com/topics/artificial-intelligence. (n.d.).

https://www.leewayhertz.com/ai-in-human-resource-management

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *