آشنایی با انواع تکنیک‌های داده‌کاوی
متخصصان داده‌کاوی چه الگوریتم‌ها و روش‌هایی برای استخراج اطلاعات در اختیار دارند؟
داده‌کاوی (Data Mining) فرآیند استخراج اطلاعات مفید از مجموعه داده‌های بزرگ و پیچیده است. این فرآیند شامل استفاده از تکنیک‌های آماری و الگوریتم‌های یادگیری ماشین برای شناسایی الگوها و روابط در داده‌ها است. هدف از داده‌کاوی، کشف اطلاعات پنهان در داده‌ها است که می‌تواند برای بهبود تصمیم‌گیری، شناسایی روندها و شناسایی فرصت‌ها استفاده شود. داده‌کاوی می‌تواند در طیف گسترده‌ای از صنایع مثل بانک‌داری، بیمه، خرده‌فروشی، بهداشت و درمان، تولید و غیره استفاده شود.

داده‌کاوی چه مزایایی در اختیار ما قرار می‌دهد؟ 

از مزایای مهمی که این علم کاربردی و تخصصی در اختیار ما قرار می‌دهد به موارد زیر باید اشاره کرد: 

  • شناسایی روندها: یکی از مشکلات بزرگی که سازمان‌ها با آن روبرو هستند، عدم شناسایی روندهایی است که برای بهبود تصمیمات استراتژیک در دسترس قرار دارند. داده‌کاوی این مشکل را برطرف می‌کند تا سازمان‌ها بتوانند از داده‌ها در تدوین استراتژی‌های راهبردی استفاده کنند. 
  • شناسایی فرصت‌ها: داده‌کاوی نقش مهمی در شناسایی فرصت‌های جدیدی دارد که می‌توانند منجر به افزایش فروش، سود و بهبود عملکرد تیم‌های بازاریابی و فروش شوند. 
  • بهبود تصمیم‌گیری: داده‌کاوی به سازمان‌ها کمک می‌کند با شناسایی الگوها و روابط در داده‌ها که ممکن است به‌شکل عادی قابل مشاهده نباشند تصمیمات بهتری بگیرند.

تکنیک‌های مختلف داده‌کاوی

نکته مهمی که باید در مورد داده‌کاوی به آن دقت کنید این است که فناوری فوق، یک ابزار نیست و نمی‌تواند جایگزین دانش و قضاوت انسانی شود. داده‌کاوی باید به‌عنوان یک ابزار مکمل در جهت تصمیم‌گیری بهتر و شناسایی فرصت‌ها استفاده شود. امروزه، سازمان‌ها به انواع مختلفی از روش‌ها و تکنیک‌ها در حوزه داده‌کاوی دسترسی دارند که هر یک مزایای خاص خود را دارند. در این مقاله، برخی از اصلی‌ترین تکنیک‌های داده‌کاوی را مورد بررسی قرار می‌دهیم. 

داده‌کاوی به‌شیوه کاوش قواعد وابستگی (Association Mining)

داده‌کاوی مبتنی بر وابستگی یا کاوش الگوها (Pattern Mining) یکی از اصلی‌ترین تکنیک‌های داده‌کاوی است که برای کشف روابط میان داده‌ها به‌کار می‌رود. هدف اصلی این تکنیک، یافتن الگوهایی است که بیان‌گر ارتباطات معنادار در یک مجموعه داده است. در کاوش الگوها، معمولا با استفاده از داده‌هایی که به‌صورت مجموعه‌ای از آیتم‌ها مثل محصولات خریداری‌شده توسط مشتریان در یک فروشگاه یا آیتم‌های جست‌وجوشده در یک موتور جست‌وجو ذخیره شده‌اند، الگوهای روابط بین آیتم‌ها را شناسایی می‌کنیم. به‌عنوان مثال، ممکن است متوجه شویم مشتریانی که قهوه خریداری می‌کنند به دنبال خرید شکلات هم هستند. این الگوی رابطه بین قهوه و شکلات را می‌توان در قالب قاعده‌هایی مانند «اگر قهوه را خریداری کردید، آنگاه احتمالا شکلات را نیز خریداری می‌کنید» بیان کرد. 

برای کاوش الگوها اغلب از الگوریتم Apriori استفاده می‌شود. این الگوریتم به‌صورت تکرارشونده، داده‌ها را شناسایی می‌کند و با استفاده از مفهوم‌هایی مانند قاعده‌های آیتم‌های پشتیبان (Support) و قاعده‌های آیتم‌های قوی (Confidence)، الگوهای مهم و قوی را استخراج می‌کند. کاوش الگوها در حوزه‌های مختلفی از جمله بازاریابی، تجارت الکترونیک، تحلیل مشتریان، تحلیل وب، تحلیل داده‌های حسابداری و بسیاری از زمینه‌های دیگر کاربرد دارد. با کشف الگوهای رابطه بین داده‌ها، می‌توان اطلاعات مهم و قابل استفاده‌ای را برای تصمیم‌گیری‌های استراتژیک، پیش‌بینی رفتار مشتریان و بهبود عملکرد کسب‌و‌کار به‌دست آورد.

خوشه‌بندی (Clustering)

خوشه‌بندی در داده‌کاوی یکی از مهم‌ترین روش‌ها برای تجزیه‌وتحلیل داده‌ها و دسته‌بندی آن‌ها به گروه‌های مشابه است. هدف اصلی خوشه‌بندی، یافتن ساختارهای مخفی و الگوهای مشابه در داده‌ها است به طوری که داده‌های هر گروه (خوشه) داخلی که شباهت بیشتری به هم دارند از داده‌های گروه‌های دیگر متمایز باشند. فرایند خوشه‌بندی شامل مراحل زیر است:

  • نمایش داده: در این مرحله، داده‌ها باید در یک فضای چندبعدی نمایش داده شوند تا بتوان بر اساس ویژگی‌ها و مشخصه‌های آن‌ها به خوشه‌بندی پرداخت.
  • انتخاب الگوریتم خوشه‌بندی: بر اساس خصوصیات داده و هدف خوشه‌بندی، الگوریتم مناسبی برای خوشه‌بندی باید انتخاب شود. برخی از الگوریتم‌های معروف خوشه‌بندی شامل K-Means، Hierarchical Clustering، DBSCAN و GMM سرنام Gaussian Mixture Models  هستند.
  • انجام خوشه‌بندی: در این مرحله، الگوریتم خوشه‌بندی انتخاب شده روی داده‌ها اجرا می‌شود. الگوریتم‌های مختلف بر اساس معیارهایی مانند فاصله یا شباهت بین داده‌ها، تلاش می‌کنند داده‌ها را به گروه‌های مشابه تقسیم کنند.
  • ارزیابی خوشه‌بندی: بعد از انجام خوشه‌بندی باید فرآیند بررسی و ارزیابی شود. این ارزیابی می‌تواند شامل مواردی مثل تفکیک‌پذیری بین خوشه‌ها، متمرکز ساختن داده‌ها در خوشه‌ها و شناسایی انحراف داخلی داده‌ها در هر خوشه باشد.

خوشه‌بندی در بسیاری از زمینه‌ها از جمله تحلیل داده‌ها، تحقیقات علمی، تجزیه‌وتحلیل مشتریان، توصیه‌گرها، شبکه‌های اجتماعی و بسیاری از حوزه‌های دیگر استفاده می‌شود. این تکنیک به ما کمک می‌کند تا الگوها، ساختارها و دسته‌بندهای مخفی در داده‌ها را شناسایی کنیم و اطلاعات ارزشمندی را برای تصمیم‌گیری‌ها، استراتژی‌ها و بهینه‌سازی فرآیندهای مختلف به دست آوریم.

طبقه‌بندی (Classification)

طبقه‌بندی در داده‌کاوی، یکی از اصلی‌ترین روش‌ها برای پیش‌بینی و دسته‌بندی داده‌ها است. هدف اصلی طبقه‌بندی، استفاده از داده‌های آموزشی با برچسب‌های مشخص‌شده (نمونه‌های آموزشی) برای ساخت یک مدل یادگیری است که بتواند داده‌های جدید و برچسب‌های ناشناخته را به‌درستی دسته‌بندی کند. فرایند طبقه‌بندی شامل مراحل زیر است:

  • جمع‌آوری داده‌های آموزشی: در این مرحله، داده‌های آموزشی با برچسب مشخص جمع‌آوری می‌شوند. هر داده ممکن است شامل یک مجموعه ویژگی‌ها (متغیرها) باشد که به‌عنوان ورودی‌ها برای مدل استفاده می‌شوند و یک برچسب که نشان می‌دهد داده به کدام دسته یا کلاس تعلق دارد.
  • انتخاب الگوریتم طبقه‌بندی: بر اساس خصوصیات داده و هدف طبقه‌بندی، الگوریتم مناسبی برای ساخت مدل طبقه‌بندی باید انتخاب شود. برخی از الگوریتم‌های معروف طبقه‌بندی شامل درخت تصمیم (Decision Tree)، ماشین بردار پشتیبان (Support Vector Machine)، شبکه عصبی  (Neural Network)، کی-نزدیک‌ترین همسایه (k-Nearest Neighbors) و روش‌های مبتنی بر احتمالات مانند بیز محلی (Naive Bayes) است.
  • ساخت مدل طبقه‌بندی: در این مرحله، مدل طبقه‌بندی با استفاده از داده‌های آموزشی ساخته می‌شود. مدل می‌تواند قوانین یا الگوریتم‌هایی را بر اساس ویژگی‌ها و برچسب‌های داده‌های آموزشی یاد بگیرد.
  • پیش‌بینی و ارزیابی: پس از ساخت مدل از آن برای پیش‌بینی برچسب‌های داده‌‌ای جدید استفاده می‌شود. به طوری که مدل بر اساس ورودی‌ها اقدام به پیش‌بینی برچسب‌های دسته‌بندی می‌کند. سپس، عملکرد مدل با استفاده از معیارهایی مانند دقت (Accuracy)، صحت (Precision)، بازخوانی (Recall) و معیارهای دیگر ارزیابی می‌شود.

طبقه‌بندی در بسیاری از حوزه‌ها و کاربردها استفاده می‌شود. از مثال‌های کاربردی طبقه‌بندی می‌توان به تشخیص اسپم از ایمیل، تشخیص بیماری‌ها، تحلیل احساسات در رسانه‌های اجتماعی، تشخیص چهره، ارزیابی تصاویر پزشکی و حوزه‌های دیگری اشاره کرد که نیاز به تشخیص و دسته‌بندی داده‌ها دارند. طبقه‌بندی به ما کمک می‌کند بر اساس الگوها و ویژگی‌های داده‌ها، دسته‌ها و گروه‌های مختلف را شناسایی کنیم و اطلاعات مفیدی را برای تصمیم‌گیری‌ها و پیش‌بینی‌ها به‌دست آوریم.

تجزیه‌وتحلیل عاملی (Factor Analysis)

تجزیه‌وتحلیل عاملی یک روش آماری در داده‌کاوی است که برای کاوش روابط پنهان بین مجموعه‌ای از متغیرها استفاده می‌شود. هدف اصلی تجزیه‌وتحلیل عاملی، کاوش ارتباطات پنهان (عوامل) بین متغیرهای مشاهده‌شده است. در واقع، تجزیه‌وتحلیل عاملی سعی می‌کند اطلاعات موجود در یک مجموعه بزرگ از متغیرها را بازترکیب کرده و آن‌ها را به تعداد کمتری عوامل پنهان خلاصه کند. فرایند تجزیه‌وتحلیل عاملی شامل مراحل زیر است:

  • جمع‌آوری داده‌ها: در این مرحله، داده‌های موردنیاز جمع‌آوری می‌شوند. این داده‌ها ممکن است شامل پاسخ‌ها در یک پرسش‌نامه یا مقادیر اندازه‌گیری‌شده از متغیرها باشند.
  • انتخاب مدل عاملی: در این مرحله، مدل عاملی برای تحلیل داده‌ها انتخاب می‌شود. مدل عاملی شامل تعدادی عامل پنهان است که روابط پنهان میان متغیرها را بیان می‌کنند. این مدل می‌تواند یک مدل تاییدی (Confirmatory) باشد که بر اساس فرضیات قبلی برای روابط بین عوامل و متغیرها تعریف شده است یا یک مدل اکتشافی (Exploratory) باشد که برای کشف روابط پنهان بین متغیرها بدون فرضیه قبلی استفاده می‌شود.
  • انجام تجزیه‌وتحلیل: در این مرحله، الگوریتم‌های محاسباتی برای تخمین پارامترهای مدل عاملی استفاده می‌شوند. این الگوریتم‌ها سعی می‌کنند روابط پنهان بین عوامل و متغیرها را بر اساس داده‌های مشاهده‌شده تخمین بزنند. یکی از روش‌های رایج برای تجزیه‌وتحلیل عاملی، روش براون و کلارک (Braun & Clarke) است.
  • تفسیر و استفاده از نتایج: پس از انجام تجزیه‌وتحلیل، نتایج به‌دست‌آمده باید تفسیر شوند. این موضوع شامل تفسیر عامل‌های پنهان، وزن‌دهی به متغیرها بر اساس عامل‌ها، تعیین اهمیت متغیرها در هر عامل و مفهوم‌دهی به عامل‌ها است. نتایج تجزیه‌وتحلیل عاملی می‌توانند در فهم بهتر ساختار یک مجموعه داده و ارتباطات پنهان میان متغیرها کمک کنند.
  • تجزیه‌وتحلیل عاملی یکی از روش‌های پرکاربرد در دنیای داده‌کاوی است که مزایای زیر را در اختیار سازمان‌ها قرار می‌دهد:
  • کاهش پیچیدگی: تجزیه‌وتحلیل عاملی به ما اجازه می‌دهد تعداد زیادی متغیر را به تعداد کمتری عامل پنهان خلاصه کنیم. این کاهش پیچیدگی، میزان داده‌ها را کاهش می‌دهد و درک و تفسیر داده‌ها را آسان‌تر می‌کند.
  • کشف ساختار پنهان: تجزیه‌وتحلیل عاملی به ما اجازه می‌دهد روابط پنهان بین متغیرها را کشف کنیم. این روابط معمولا از طریق عوامل پنهانی که تعبیر معنایی دارند، بیان می‌شوند و اطلاعات جدیدی درباره داده‌ها ارائه می‌دهند. 
  • خلاصه‌سازی داده‌ها: با استفاده از تجزیه‌وتحلیل عاملی می‌توانیم داده‌های زیادی را خلاصه‌سازی کنیم. این خلاصه‌سازی می‌تواند برای تجزیه‌وتحلیل بعدی داده‌ها، برآورد پارامترها یا ساخت مدل‌های پیش‌گویانه مفید باشد.
  • تحلیل روابط چندمتغیره: تجزیه‌وتحلیل عاملی به ما اجازه می‌دهد روابط پیچیده و چندمتغیره را بررسی کنیم و بتوانیم ارتباطات پنهان و روابط عمومی بین متغیرها را درک کنیم.

تجزیه‌وتحلیل عاملی در حوزه‌های مختلفی مانند علوم رفتاری، علوم اجتماعی، روان‌شناسی، علوم سیاسی و بازاریابی مورد استفاده قرار می‌گیرد. با استفاده از این روش، می‌توانیم الگوهای پنهان در داده‌ها را شناسایی کرده و درک بهتری از فرایندها و رفتارها داشته باشیم.

استخراج الگوهای متوالی (Sequential Pattern Mining)

استخراج الگوهای متوالی یک فرایند کاربردی در حوزه داده‌کاوی است که بر روی داده‌های متوالی، مانند سری‌های زمانی، شناخت الگوهای تکراری و متوالی مورد استفاده قرار می‌گیرد. این روش به ما اجازه می‌دهد تا روابط بین رویدادها و نمونه‌ها در داده‌های متوالی را کشف کنیم. مراحل اصلی استخراج الگوهای متوالی به‌شرح زیر است:

  • تعریف داده‌های متوالی: ابتدا باید داده‌های متوالی را تعریف کنیم. این داده‌ها ممکن است مربوط به زمانی باشند که رخدادها اتفاق می‌افتد یا شامل ترتیب مشخصی از رویدادها باشد. مثال‌هایی از داده‌های متوالی عبارتند از سبد خرید مشتریان، سری زمانی واقعه‌ها در شبکه‌های مخابراتی و لاگ‌های وب.
  • تعریف الگوها: در این مرحله، الگوهای متوالی که قصد استخراج آن‌ها را داریم تعریف می‌شوند. الگوها می‌توانند شامل ترتیب مشخصی از رویدادها، شرایط و ویژگی‌های مشخص در رویدادها و طول الگو باشند.
  • استخراج الگوها: در این مرحله، الگوریتم‌های مختلف استخراج الگوهای متوالی بر روی داده‌های متوالی اجرا می‌شوند. این الگوریتم‌ها با استفاده از روش‌هایی مانند اپریوری (Apriori)، روش‌های پیش‌رونده (PrefixSpan) و روش‌های پیش‌گویانه (Prediction-based)، الگوهای متوالی را استخراج می‌کنند. به‌طور کلی، این الگوریتم‌ها الگوهایی را که تکرار بالایی در داده‌های متوالی دارند، شناسایی می‌کنند.
  • تفسیر الگوها: پس از استخراج الگوها، مرحله تفسیر الگوها و تحلیل نتایج است. این موضوع شامل بررسی و تفسیر الگوهای استخراج‌شده، تحلیل روابط میان رویدادها و ویژگی‌های مشخص در الگوها و استفاده از الگوها برای پیش‌بینی رویدادها و رفتارها در آینده است.
  • استخراج الگوهای متوالی در حوزه‌های مختلفی از جمله مدیریت مشتریان، تحلیل رفتارهای مشتریان، تحلیل رفتار کاربران و پیش‌بینی عملکرد سیستم‌ها استفاده می‌شود. با استفاده از الگوهای متوالی می‌توان الگوهای تکراری و قوانین پیش‌گویانه را در داده‌های متوالی شناسایی کرده و از آن‌ها برای تصمیم‌گیری‌های بعدی و بهبود فرآیندها استفاده کرد. برخی از الگوریتم‌های معروف در حوزه استخراج الگوهای متوالی به‌شرح زیر هستند:
  • AprioriAll: این الگوریتم بر اساس روش مدل اپریوری (Apriori) عمل می‌کند و الگوهای متوالی را بر مبنای پارامترهای تعیین‌شده استخراج می‌کند.
  • PrefixSpan: این الگوریتم از روش پیش‌رونده استفاده می‌کند و الگوهای متوالی را با توجه به طول الگو استخراج می‌کند.
  • GSP سرنام Generalized Sequential Pattern: این الگوریتم بر اساس روش توالی‌های عمومی شناخته‌شده اقدام به استخراج الگوهای پیوسته بر مبنای حداکثر خطا می‌کند.
  • SPAM سرنام Sequential Pattern Mining using Bitmaps: این الگوریتم از روش بیت‌مپ (Bitmap) برای استخراج الگوهای متوالی استفاده می‌کند و در مقایسه با سایر الگوریتم‌ها کارایی بالاتری دارد.

پیش‌بینی (Prediction)

پیش‌بینی یکی از کاربردهای مهم داده‌کاوی است که به ما امکان می‌دهد رویدادها و وقوع‌ آن‌ها در آینده را بر مبنای الگوها و اطلاعات موجود در داده‌ها پیش‌بینی کنیم. پیش‌بینی در داده‌کاوی به‌طور گسترده‌ای در حوزه‌های مختلفی از جمله تجارت الکترونیک، مالی، اجتماعی و غیره استفاده می‌شود. برای انجام پیش‌بینی در داده‌کاوی، می‌توان از روش‌ها و الگوریتم‌های مختلفی استفاده کرد. در زیر، چند روش و الگوریتم معروف پیش‌بینی در داده‌کاوی را مورد بررسی قرار می‌دهیم:

  • رگرسیون (Regression): روش رگرسیون به ما امکان می‌دهد تا رابطه‌ بین متغیرهای مستقل و وابسته را مدل‌سازی کنیم. با استفاده از الگوریتم‌های رگرسیون، می‌توانیم یک مدل پیش‌بینی ایجاد کنیم که براساس مقادیر متغیرهای مستقل، مقدار یا محدوده مقادیر متغیر وابسته را پیش‌بینی کند. برخی از الگوریتم‌های رگرسیون معروف شامل رگرسیون خطی، رگرسیون لجستیک و درخت تصمیم مبتنی بر رگرسیون هستند.
  • شبکه‌های عصبی (Neural Networks): شبکه‌های عصبی یک روش قدرتمند برای پیش‌بینی در داده‌کاوی هستند. این شبکه‌ها از لایه‌های مختلفی از نورون‌های مصنوعی تشکیل شده‌اند که با استفاده از الگوریتم‌های آموزشی قادر به یادگیری الگوهای پیچیده در داده‌ها هستند. شبکه‌های عصبی عموما برای پیش‌بینی مقادیر عددی یا دسته‌بندی رویدادها استفاده می‌شوند.
  • درخت تصمیم (Decision Trees): درخت تصمیم یک روش ساده و قابل فهم برای پیش‌بینی است. در این روش، داده‌ها را براساس ویژگی‌های مختلف به گروه‌های مختلف تقسیم می‌کنیم و در نهایت با استفاده از ساختار درخت، پیش‌بینی می‌کنیم. الگوریتم‌های ID3 و C4.5 از معروف‌ترین الگوریتم‌های مبتنی بر درخت تصمیم هستند.
  • ماشین بردار پشتیبان (Support Vector Machines): ماشین بردار پشتیبان یک الگوریتم یادگیری ماشین است که در بسیاری از مسائل پیش‌بینی مورد استفاده قرار می‌گیرد. SVM به ما امکان می‌دهد یک ابرصفحه (hyperplane) را در فضای ویژگی‌ها ایجاد کنیم که بین دو دسته‌بندی مختلف قرار دارد. با استفاده از این ابرصفحه می‌توانیم نمونه‌های جدید را دسته‌بندی کنیم و پیش‌بینی کنیم که به کدام دسته تعلق دارند. 
  • مدل‌های جمعی (Ensemble Models): مدل‌های جمعی مجموعه‌ای از الگوریتم‌های یادگیری ماشین هستند که با ترکیب پیش‌بینی‌های مختلف، پیش‌بینی نهایی را ارائه می‌دهند. مثال‌هایی از مدل‌های جمعی شامل روش تقویت گرادیانی (Gradient Boosting) و جنگل تصادفی (Random Forest)است. این مدل‌ها عموما به‌عنوان یکی از بهترین روش‌ها برای پیش‌بینی در داده‌کاوی مورد استفاده قرار می‌گیرند. 

به‌طور کلی، هیچ الگوریتم معینی برای پیش‌بینی در داده‌کاوی وجود ندارد که در همه موارد بهترین عملکرد را داشته باشد. انتخاب الگوریتم مناسب بستگی به خصوصیات داده‌ها، مسئله مورد نظر و منابع موجود دارد. برای هر مسئله خاص، ممکن است لازم باشد برخی از الگوریتم‌ها را آزمایش کنید و با تجزیه‌وتحلیل نتایج، بهترین روش را برای پیش‌بینی انتخاب کنید.

مدل‌های آمیخته (Mixture Models)

مدل‌های آمیخته مجموعه‌ای از مدل‌های آماری هستند که در داده‌کاوی استفاده می‌شوند. این مدل‌ها برای توصیف توزیع‌های احتمالی پیچیده‌تر از توزیع‌های ساده مانند توزیع نرمال (Normal Distribution) استفاده می‌شوند. در واقع، یک مدل آمیخته به‌صورت خطی یا غیرخطی از تعدادی توزیع ساده که به‌عنوان اجزای مختلف یا ترکیب‌ها شناخته می‌شوند ساخته می‌شوند. در یک مدل آمیخته، هر ترکیب یا مولفه می‌تواند توزیعی ساده مانند گوسی، دوجمله‌ای یا هر توزیع احتمالی دیگر را نمایش دهد. هر ترکیب دارای وزن است که نشان‌دهنده احتمال وقوع آن ترکیب است. با داشتن این وزن‌ها و مولفه‌های توزیع‌شده می‌توان به‌صورت آماری توزیع‌های پیچیده‌تر را توصیف کرد. این مدل‌ها قادرند توزیع‌های پیچیده و نامتقارن را توصیف کنند و می‌توانند الگوهای پنهان در داده‌ها را شناسایی کنند. همچنین، با استفاده از مدل‌های آمیخته می‌توان احتمال وقوع یک رویداد را بر اساس مولفه‌ها و وزن‌های مربوطه پیش‌بینی کرد. مدل‌های آمیخته در بسیاری از حوزه‌های داده‌کاوی مورد استفاده قرار می‌گیرند که از آن جمله باید به تشخیص الگوها و خوشه‌بندی (Clustering)، تحلیل خوشه‌ها (Cluster Analysis)، تشخیص نمونه‌های ناهنجار (Anomaly Detection)، تخمین توزیع داده‌ها (Density Estimation) و بازیابی اطلاعات (Information Retrieval) اشاره کرد . 

 

ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را می‌توانید از کتابخانه‌های عمومی سراسر کشور و نیز از دکه‌های روزنامه‌فروشی تهیه نمائید.

ثبت اشتراک نسخه کاغذی ماهنامه شبکه     
ثبت اشتراک نسخه آنلاین

 

کتاب الکترونیک +Network راهنمای شبکه‌ها

  • برای دانلود تنها کتاب کامل ترجمه فارسی +Network  اینجا  کلیک کنید.

کتاب الکترونیک دوره مقدماتی آموزش پایتون

  • اگر قصد یادگیری برنامه‌نویسی را دارید ولی هیچ پیش‌زمینه‌ای ندارید اینجا کلیک کنید.

ایسوس

نظر شما چیست؟