داده

فروش اطلاعات سرقتی 170 هزار سرور سایت در اینترنت
بهنام علیمحمدی
اخبار
اخبار جهان
08/04/1395 - 22:29
امروزه سرقت اطلاعات به یکی از بزرگترین چالش‌های قرن اخیر مبدل شده و با اینکه کارشناسان اینترنت، راهکارهای متعددی را برای جلوگیری و مبارزه با دزدی اطلاعات به کار گمارده‌اند؛ اما هنوز هم خبر سرقت‌‌...

نسخه الکترونیکی ماهنامه شبکه 273

تصویر الناز قنبری
ارسال شده توسط الناز قنبری در 1402, بهمن 14 - 09:12

نسخه الکترونیکی  ماهنامه شبکه 273
در سرمقاله شماره 273 ماهنامه شبکه در ادامه مجموعه مقالات (هوش مصنوعی و دریای دیجیتال) اینبار هوش مصنوعی با معضل ریزپلاستیک‌ها رو‌به‌رو می‌شود! در فصل هوش مصنوعی نگاهی خواهیم داشت به برترین کاربردهای یادگیری ماشین در سال 2024، در فصل فناوری شبکه با سامانه مدیریت یکپارچه تهدیدات و قابلیت‌های آن برای کارشناسان شبکه آشنا می‌شوید، در فصل عصر شبکه تنها 9 گام تا آماده‌سازی یک طرح کسب‌و‌کار موفق فاصله دارید، در فصل کارگاه با الگوهای طراحی جاوا آشنا می‌شوید و در نهایت پرونده ویژه این شماره (مصورسازی داده‌ها) را مطالعه می‌کنید.

هوش مصنوعی

Untitled-هوش-273.jpg

  • برترین کاربردهای یادگیری ماشین در سال 2024 میلادی
  • تحلیل سری زمانی (Time Series) در دنیای  فناوری اطلاعات و  هوش مصنوعی به چه معنا است؟

فناوری شبکه

Untitledفناوری-273.jpg

  • سامانه مدیریت یکپارچه تهدیدات چیست و چه قابلیت‌هایی در اختیار کارشناسان شبکه قرار می‌دهد؟
  • ذخیره‌سازی به‌عنوان سرویس (Storage as a Service) چیست؟
  • مجازی‌سازی دسکتاپ با VMware Horizon View

امنیت

Untitled-امنیت-273.jpg

  • ضمیمه‌های امنیتی سامانه نام دامنه چیستند و برای چه هدفی استفاده می‌شود؟
  • امنیت پورت چیست و چگونه از آن استفاده کنیم؟

عصر شبکه

Untitled-عصر-273.jpg

  • آیا ابرزنجیره‌ها آینده زنجیره‌بلوکی  را شکل می‌دهند؟
  • تنها 9 گام تا آماده‌سازی یک طرح کسب‌و‌کار موفق فاصله دارید  

کارگاه

Untitled-کترگاه-273.jpg

  • آشنایی با الگوهای طراحی جاوا
  • کاتلین چه دستورهایی برای کنترل جریان برنامه در اختیار ما  قرار می‌دهد؟

پرونده ویژه

Untitled-پرونده-273.jpg

  • مصورسازی داده‌ها؛ داستان‌های جذاب داده‌ها به قلم اعداد!
  • مصورسازی داده‌ها به چه صورتی انجام می‌شود و بر مبنای چه مراحلی است؟
  • مصورسازی در یادگیری ماشین چیست و چگونه انجام می‌شود؟
  • متخصص مصورسازی کیست و به چه مهارت‌هایی نیاز دارد؟ 
  • چگونه داشبوردهای گزارش‌دهی در پایتون را ایجاد کنیم؟ 
  • چگونه فرآیند مصورسازی یک درخت تصمیم از جنگل تصادفی را انجام دهیم؟ 
  • چه کتاب‌خانه‌هایی برای مصورسازی داده‌ها در دسترس قرار دارند؟

مصورسازی داده‌ها؛ داستان‌های جذاب داده‌ها به قلم اعداد!

مصورسازی داده‌ها تاریخچه طولانی و جذابی دارد. از زمانی که انسان برای اولین بار اطلاعات را در قالب نمودارها و نمایش‌های تصویری ارائه کرد، مصورسازی داده‌ها به‌عنوان یک ابزار قدرتمند در ارائه و تفسیر اطلاعات مورد استفاده قرار گرفته است. اگر نگاهی گذرا به این تاریخچه جذاب داشته باشیم باید بگوییم که اولین بار در قرن 17 و 18 این مفهوم مورد توجه قرار گرفت. در این دوره، استفاده از نمودارها و نمایش‌های بصری برای نشان دادن اطلاعات و آمارها اهمیت زیادی پیدا کرد. ویلیام پایبر و رابرت هوک به‌عنوان پیشگامان این حوزه به‌شمار می‌روند. آن‌ها از نمودارها و تصاویر برای نمایش اطلاعات جمع‌آوری‌شده در زمینه‌های مختلف مانند جغرافیا، ریاضیات و آمار استفاده می‌کردند.

در قرن 19، توسعه روش‌های مصورسازی داده‌ها شکل جدی‌تری به خود گرفت و متخصصان به‌شکل فراگیرتری از نمودارها و نقشه‌ها به‌منظور مصورسازی داده‌ها در حوزه‌های آمار و جغرافیا استفاده کردند. افرادی مثل ویلیام اچ اینمون (William H. Inmon) دانشمند علم داده‌های امریکایی که از او به‌عنوان پدر انبار داده‌ها (data warehouse) یاد می‌شود، تلاش‌های زیادی در این زمینه انجام دادند. همزمان با آغاز قرن بیستم میلادی و پیشرفت فناوری و روش‌های محاسباتی، مصورسازی داده‌ها شکل پیشرفته‌تری به خود گرفت. ایجاد نمودارهایی که توسط کامپیوترها تولید می‌شدند و به‌کارگیری تکنیک‌های مصورسازی داده‌ها مثل نمودارهای خطی، میله‌ای و دایره‌ای از جمله این تحولات بودند. این روش‌ها باعث شدند تا اطلاعات به‌شکل قابل فهم و تفسیرپذیرتری در اختیار ما قرار بگیرد. 

در قرن 21 همزمان با افزایش حجم و تنوع داده‌ها، مصورسازی داده‌ها به‌عنوان یکی از اصلی‌ترین ابزارها در حوزه‌های مختلف مانند علوم داده، آمار، بازاریابی و ارتباطات مورد استفاده قرار گرفتند. به‌طوری‌که ابزارهای نوینی در زمینه ساخت نمودارها، نماها و نقشه‌ها پدید آمدند و به متخصصان اجازه دادند تا اطلاعات پیچیده را به زبانی ساده در اختیار مخاطبان عام قرار دهند و ارتباط پنهان میان داده‌ها را کشف کنند. همزمان، کتاب‌خانه‌های برنامه‌نویسی قدرتمندی نیز ابداع شدند تا برنامه‌نویسان بتوانند فرآیند مصورسازی را سفارشی و خودکارسازی کنند. به‌طوری‌که امروزه شاهد عرضه انواع مختلفی از داشبوردهای گزارش‌دهی هستیم که اطلاعات را به‌شکل دقیقی در اختیار ما قرار می‌دهند. بر مبنای این روش‌های نوین بصری‌سازی اطلاعات است که سازمان‌ها توانستند داده‌ها را به‌شکل ساده‌تری درک کرده و الگوها، روابط و ساختارهای مختلف مستتر در داده‌ها را کشف کنند. 

از ابزارها و فناوری‌های مطرح در این زمینه باید به نرم‌افزارهای مصورسازی وب‌محور، کتاب‌خانه‌های ارائه‌شده برای زبان‌های برنامه‌نویسی پایتون و آر برای تحلیل و مصورسازی داده‌ها، کتاب‌خانه‌های گرافیکی مانند D3.js و Matplotlib و ابزارهای تعاملی مانند Tableau  Power BI اشاره کرد. 

امروزه، مصورسازی داده‌ها در زمینه‌های مختلف مانند علوم داده‌ها، تجارت، تحلیل شبکه‌های اجتماعی، بهداشت و درمان، تحلیل مالی، علوم اجتماعی و حوزه‌های دیگر مورد استفاده قرار می‌گیرد. با استفاده از مصورسازی داده‌ها، می‌توان به‌راحتی الگوها، ترندها و اطلاعات مهم را شناسایی کرده و تصمیم‌گیری‌های بهتری انجام داد. همچنین، مصورسازی داده‌ها اجازه می‌دهد اطلاعات به‌صورت جذاب و قابل فهم‌تری در اختیار مخاطبان قرار بگیرد. 

واقعیت این است که مصورسازی داده‌ها اجازه می‌دهد به داستان‌پردازی با داده‌ها بپردازیم. در این روش، داده‌های مختلفی مانند اعداد، آمارها، ترتیب زمانی، روابط و الگوها به‌صورت گرافیکی به تصویر کشیده می‌شوند تا بهترین تفسیر و درک از داده‌ها به‌دست آید.

در فرآیند داستان‌پردازی با داده‌ها، داده‌ها نقشی شبیه به شخصیت‌های داستانی دارند، با این تفاوت که ارتباطات، تعاملات و روابط بین آن‌ها به‌صورت تصویری نمایش داده می‌شوند. هدف این است که ارتباط عمیق‌تر و معناداری میان داده‌ها و مخاطبان به‌دست آید. در فرآیند داستان‌پردازی با داده‌ها از تکنیک‌های مختلفی برای ارائه داده‌ها استفاده می‌شود که نمودارها، نقشه‌ها، تصاویر و مولفه‌های گرافیکی از ارکان اصلی هستند. بد نیست بدانید که داستان‌پردازی با داده‌ها در بسیاری از زمینه‌ها و صنایع مورد استفاده قرار می‌گیرد. این تکنیک کاربردهای مختلفی در دنیای امروزی دارد. اولین مورد، توضیح و تبیین داده‌های آماری و تحلیلی در حوزه‌های مختلف مانند علوم داده، بازاریابی، مدیریت، سلامت، آموزش و غیره است. مورد بعدی، ارائه گزارش‌ها و تحلیل‌های داده‌ای به‌صورت جذاب و قابل درک برای مدیران و تصمیم‌گیران است. فرآیند فوق نقش مهمی در ساخت داستان‌های مبتنی بر داده‌ها برای تبلیغات و بازاریابی دارد. همچنین، به ما کمک می‌کند تا مفاهیم پیچیده را به‌شکلی ساده برای مخاطبان غیرفنی توضیح دهیم. همان‌گونه که مشاهده می‌کنید، مصورسازی داده‌ها، نقشی به‌مراتب مهم‌تر از آن چیزی دارد که بسیاری از ما تصور می‌کنیم. در حالی‌که برخی تصور می‌کنند این تکنیک بیشتر در دنیای هوش مصنوعی و اقتصاد کاربرد دارد، اما واقعیت این است که بسیاری از صنایع می‌توانند از مزایای آن بهره‌مند شوند. 

با توجه به توضیحاتی که ارائه کردیم، ممکن است حدس زده باشید که پرونده ویژه این شماره ماهنامه شبکه به مبحث مصورسازی داده‌ها اختصاص دارد. در این شماره به شما خواهیم گفت مصورسازی داده‌ها به چه صورتی انجام می‌شود و چه مراحلی دارد؛ مصورسازی در یادگیری ماشین را مورد بررسی قرار می‌دهیم؛ با عنوان شغلی کارشناس مصورسازی و مهارت‌های موردنیاز آن آشنا می‌شویم؛ نحوه ساخت داشبوردهای گزارش‌دهی در پایتون را بررسی می‌کنیم؛ چگونگی مصورسازی یک درخت تصمیم از جنگل تصادفی را مشاهده می‌کنیم و در نهایت با برخی از کتاب‌خانه‌های رایج برای مصورسازی داده‌ها آشنا خواهیم شد. امید است پرونده ویژه این شماره مورد توجه مخاطبان قرار بگیرد

مشتری برای خرید این محصول نیاز به آدرس دارد؟: 
کلمات کلیدی: 

نسخه الکترونیکی ماهنامه شبکه 271

تصویر الناز قنبری
ارسال شده توسط الناز قنبری در 1402, آذر 18 - 18:31

نسخه الکترونیکی ماهنامه شبکه 271
در سرمقاله شماره 271 ماهنامه شبکه هوش مصنوعی در دریای دیجتال جولان می‌دهد، در فصل هوش مصنوعی بررسی می‌کنیم که چرا یادگیری نظارت‌شده محبوب است، در فصل فناوری شبکه بهترین معماری برای پیاده‌سازی یک شبکه سازمانی بزرگ معرفی می‌شود، در فصل امنیت هکرها به یک شبکه محلی مجازی حمله می‌کنند، در فصل عصر شبکه مفهوم تفکر در روان‌شناسی و انواع آن بررسی می‌شود، و در نهایت در پرونده ویژه این شماره (DataPipeLine شریان داده‌ها) جاده‌ای به سوی تحلیل کلان‌داده‌ها می‌سازد.

هوش مصنوعی

Untitled-هوش-271.jpg

  • چرا یادگیری نظارت‌شده محبوب است و چگونه مدل‌های مبتنی بر آن را پیاده‌سازی کنیم؟
  • شبکه عصبی پرسپترون چند‌لایه چیست و چه کاربردهایی دارد؟  

فناوری شبکه

Untitled-فناوری-271.jpg

  • بهترین معماری برای پیاده‌سازی یک شبکه سازمانی بزرگ چیست؟
  • آشنایی با مکانیزم‌های رایج سرمایش در مراکز داده 

امنیت

Untitled-امنیت-271.jpg

  • استراتژی امنیت فناوری اطلاعات چیست و چه مباحثی را شامل می‌شود؟ 
  • هکرها چگونه به شبکه محلی مجازی حمله می‌کنند؟

عصر شبکه

Untitled-عصر-271.jpg

  • مفهوم تفکر در روان‌شناسی چیست و چه انواعی دارد؟
  • روانشناسی پول چیست و چگونه فناوری در مدیریت امور مالی به ما کمک می‌کند؟  

کارگاه

Untitled-کارگاه-271.jpg

  • چگونه توابع در زبان برنامه‌نویسی کاتلین تعریف می‌شوند؟ 
  • متدولوژی چابک چیست، چگونه کار می‌کند و پیاده‌سازی می‌شود؟

پرونده ویژه

Untitledپرونده-271.jpg

  • دیتا پایپ‌لاین؛ جاده‌ای به سوی تحلیل کلان‌داده‌ها 
  • خط انتقال داده‌ چیست و چرا به آن نیاز داریم؟
  • آشنایی با انواع خطوط انتقال داده‌ها و نحوه ساخت آن‌ها
  • چه ابزارهایی برای ساخت خطوط انتقال داده‌ها در دسترس قرار دارند؟ 
  • Apache Airflow  چیست و چگونه از آن استفاده کنیم؟
  • خطوط انتقال داده‌ها چه نقشی در دنیای یادگیری ماشین دارند و چگونه ساخته می‌شوند؟
  • دریاچه داده‌ها و خط انتقال داده‌ها چه ارتباطی دارند و چگونه کدنویسی آن‌ها را انجام دهیم؟

دیتا پایپ‌لاین؛ جاده‌ای به سوی تحلیل کلان‌داده‌ها 

خط انتقال داده‌ها (Data Pipeline) معماری‌ای است که برای جابه‌جایی و تبدیل داده‌ها در سیستم‌های پردازشی و تحلیلی استفاده می‌شود. با این‌حال، تاریخچه خط انتقال داده به ظهور سیستم‌های مبتنی بر داده‌ها و نیاز به پردازش کلان‌داده‌ها باز می‌گردد. در دهه 1970 میلادی، با ظهور پایگاه‌های داده رابطه‌ای (Relational Databases)، تمرکز بر مدل‌سازی داده‌ها و استفاده از زبان SQL برای استخراج داده‌ها زیاد شد. در این دهه، برای اولین بار استفاده از فناوری‌هایی مثل ETL (استخراج، تبدیل و بارگذاری) برای جابه‌جایی داده‌ها مورد توجه شرکت‌ها قرار گرفت. تقریبا دو دهه بعد، با ظهور زیرساخت‌های بزرگ پردازش داده‌ها مانند سیستم‌های توزیع‌شده هدوپ، نگاه‌ها به سمت انتقال و پردازش سریع داده‌ها دوخته شد. در این دهه، تولیدکنندگان نرم‌افزارها، ابزارهایی برای تسهیل انتقال و پردازش داده‌ها ارائه کردند.

در دهه 2000 میلادی با رشد سیستم‌های ‌وب‌محور و تحول در معماری نرم‌افزاری، بازهم شاهد رشد کم‌سابقه داده‌هایی بودیم که توسط صنایع مختلف تولید می‌شود. این دهه شاهد ظهور ابزارهایی مانند Apache Kafka بودیم که برای اولین بار اجازه دادند فرآیند پردازش داده‌ها را به‌شکل متفاوت انجام دهیم. در دهه 2010 میلادی با رشد روش‌های تحلیل داده‌ها، افزایش سرعت پردازش و نیاز به تحلیل همزمان داده‌ها، اهمیت دیتا پایپ‌لاین و ابزارهای مرتبط برای همه شرکت‌ها آشکار شد. این عصری بود که ابزارهایی مانند Apache Storm، Apache Spark و Apache Flink برای پردازش داده‌ها در زمان واقعی و پردازش‌ جریانی به دنیای فناوی وارد شدند. 

در دهه 2020 میلادی با رشد سرویس‌های ابری و رایج شدن معماری ریزخدمات (Microservices)، دیتا پایپ‌لاین به‌عنوان یک الگوی معماری محبوب‌تر و حیاتی‌تر شد. در این دهه، ابزارهایی مانند Apache Airflow، Apache NiFi، و Kubernetes برای مدیریت و اجرای دیتا پایپ‌لاین‌ها با استفاده از کانتینرها و زیرساخت‌های ابری معرفی شدند که امروزه به‌شکل گسترده‌ای مورد استفاده قرار می‌گیرند. 

از آن زمان تا به امروز، دیتا پایپ‌لاین به‌عنوان یکی از فناوری‌های کلیدی در تحلیل و پردازش داده‌ها استفاده می‌شود. هنگامی که صحبت از انتقال داده‌ها با استفاده از فناوری فوق به میان می‌آید، چند مبحث مهم و کلیدی وجود دارد که باید به آن دقت کرد. اولین مورد، مبحث استخراج (Extraction) است. در این مرحله، داده‌ها از منابع مختلف مانند پایگاه داده‌ها، فایل‌ها، سرویس‌های وب و سایر منابع استخراج می‌شوند. این استخراج ممکن است به‌‌صورت دوره‌ای یا در زمان واقعی (real-time) صورت بگیرد. مورد بعدی تبدیل (Transformation) است که داده‌ها به فرمتی هماهنگ با مخزن نهایی تبدیل می‌شوند. 

به‌طور کلی خط انتقال داده‌ها به‌منظور پردازش و مدیریت حجم گسترده‌ای از داده‌ها، تسریع فرآیندهای تحلیل، افزایش کارایی در زمینه اخذ تصمیمات تجاری و غیره استفاده می‌شود. همین مسئله باعث شده تا خطوط انتقال داده‌ها در صنایع مختلفی مورد استفاده قرار بگیرند. به‌طور مثال، در تجارت الکترونیک، داده‌ها نقش بسیار مهمی دارند و برای مدیریت و استفاده بهینه از آن‌ها، سازمان‌ها به خطوط انتقال داده‌ها نیاز دارند. به‌طوری که به بازاریابان و مدیران بازاریابی اجازه می‌دهد به جمع‌آوری داده‌های مشتریان، داده‌های کمپین‌ها، مدیریت موجودی، تحلیل عملکرد فروش و بهبود تجربه مشتری بپردازند. 

یکی از کاربردهای خط انتقال داده برای تحلیل داده‌ها با هدف بهبود فعالیت‌های تجاری است. خط انتقال داده‌ها می‌تواند داده‌ها را به سیستم‌های تحلیلی مانند ابزارهای هوش تجاری (Business Intelligence) و سیستم‌های گزارش‌دهی ارسال کند تا اطلاعات مفیدی برای تصمیم‌گیری استخراج شود. با تحلیل داده‌ها می‌توان متوجه الگوها و روندهای مشتریان، بازار و عملکرد کسب‌و‌کار شد و بر اساس این اطلاعات، تصمیم‌های بهتری برای بهبود فرآیندها و افزایش فروش اتخاذ کرد. 

علاوه بر این، خطوط انتقال داده قابلیت اتصال به سیستم‌های خارجی را دارند. این خطوط می‌توانند داده‌های تجاری را برای سیستم‌های مختلفی مثل سیستم‌های مدیریت ارتباط با مشتری (CRM)، سیستم‌های مدیریت انبار (WMS) و موارد مشابه ارسال کنند. این قابلیت، امکان انتقال اطلاعات بین سیستم‌ها را فراهم می‌کند و کارآیی و هماهنگی بین فرآیندها را بالا می‌برد.

علاوه بر این، خطوط انتقال داده‌ها در صنعت تحلیل داده و مشاغل داده‌محور نیز نقش مهمی دارند. این خطوط برای جمع‌آوری، پردازش، تبدیل و انتقال داده‌ها به‌‌صورت خودکار و متمرکز طراحی می‌شوند تا فرآیند تحلیل داده‌ها سریع‌تر و موثرتر باشد. به‌طور مثال، فناوری فوق در علم داده (Data Science) نقش کلیدی و تاثیرگذاری دارد. علم داده‌ها مبتنی بر استخراج اطلاعات ارزشمند و الگوهای مفید از داده‌ها است.  

علم داده‌ها برای اکتشاف داده‌ها و شناخت بهتر الگوها، روابط و ویژگی‌های موجود در داده‌ها استفاده می‌شود. تحلیل‌های توصیفی، تجزیه‌وتحلیل اکتشافی و استفاده از فنون مصورسازی مانند نمودارها، همگی به خطوط انتقال داده نیاز مبرمی دارند. در حوزه اینترنت اشیاء نیز خطوط انتقال داده‌ها برای جمع‌آوری و پردازش داده‌های حسگرها، تحلیل داده‌ها، اتخاذ تصمیمات بر اساس داده‌های جمع‌آوری‌شده و ارسال دستورات به دستگاه‌ها استفاده می‌شود. 

با توجه به این‌که حس‌گرهای مورد استفاده در اینترنت اشیاء حجم زیادی از اطلاعات را تولید کرده و برای مراکز داده ارسال می‌کنند، شرکت‌ها و متخصصان به راهکاری نیاز دارند که اجازه دهد به‌شکل بهینه و دقیق به داده‌ها دسترسی داشته باشند. مهندسان داده برای پاسخ‌گویی به این نیاز به سراغ خطوط انتقال داده می‌روند که اجازه می‌دهد داده‌ها را به‌شکل پردازش‌شده یا در حالت بدون ساختار به دریاچه داده‌ها یا انبار داده‌ها ارسال کنند. با این مقدمه به سراغ پرونده ویژه این شماره می‌رویم که روی مبحث خطوط انتقال داده‌ها، انواع آن‌ها و روش‌های مختلف ساخت آن‌ها متمرکز است. امید است پرونده این شماره مورد توجه متخصصان قرار بگیرد.  

مشتری برای خرید این محصول نیاز به آدرس دارد؟: 
کلمات کلیدی: 

نسخه الکترونیکی ماهنامه شبکه 269

تصویر الناز قنبری
ارسال شده توسط الناز قنبری در 1402, مهر 18 - 18:10

نسخه الکترونیکی ماهنامه شبکه 269
در سرمقاله شماره 269 ماهنامه شبکه در ادامه سلسله مقالات هوش مصنوعی، اینبار موضوع مهم سیستم و تفکر سیستمی بررسی می‌شود، در فصل هوش مصنوعی مفهوم عامل هوشمند و نقش آن در دنیای هوش مصنوعی بررسی می‌شود، در فصل فناوری شبکه با معماری فارغ از سرور (Serverless) آشنا می‌شود، در فصل امنیت راهنمایی ارائه می‌شود برای تهیه چک‌لیست امنیتی برای شبکه و ویندوز سرور، در فصل عصر شبکه نگاهی داریم به آینده بازار کار، در فصل کارگاه بهترین فایروال‌های رایگان لینوکس معرفی می‌شود و در نهایت در پرونده ویژه این شماره علم داده موتور هوش مصنوعی را روشن می‌کند.

در پرونده ویژه شماره 269 مجله شبکه به شما خواهیم گفت علم داده‌ها چیست و چرا در آینده نزدیک جامعه ایرانی به آن نیاز دارد؛ چگونه از درخت تصمیم در علم داده‌ها استفاده کنیم؛ آمار توصیفی چه نقشی در علم داده‌ها دارد؛ Data Wrangling چیست؛ مصورسازی داده‌ها به چه معنا است و علم داده‌ها چه نقشی در معماری موتورهای توصیه‌کننده (Recommendation Engines) دارد. اگر دوست دارید یک متخصص علم داده‌ها شوید، پیشنهاد می‌کنیم، مطالب پرونده ویژه این شماره مجله را به هیچ عنوان از دست ندهید

هوش مصنوعی

Untitled-هوش-269 - Copy.jpg

  • مهندس پرامپت کیست و پرامپت‌نویسی به چه معنا است؟
  • عامل هوشمند چیست و چه نقشی در دنیای هوش مصنوعی دارد؟ 

فناوری شبکه

Untitled-فناوری--269 - Copy.jpg

  • سرورهای HPE ProLiant Gen11 چه قابلیت‌هایی در اختیار سازمان‌ها قرار می‌دهند؟‌
  • معماری فارغ از سرور (Serverless) چیست و چه نقشی در دنیای محاسبات دارد؟ 

امنیت

Untitled-امنیت-269 - Copy.jpg

  • چگونه یک چک‌لیست امنیتی برای شبکه و ویندوز سرور آماده کنیم؟ 
  • چگونه امنیت محیط‌های مجازی را تامین کنیم؟

عصر شبکه

Untitled-عصر-269 - Copy.jpg

  • آینده بازار کار به چه سمت‌وسویی در حال حرکت است؟ 
  • شبکه‌هــا  و  پلتفرم‌های اجتماعی چه نقش و تاثیری بر سلامت روان نسل زد دارند؟

کارگاه

Untitledکارگاه-269.jpg

  • پایگاه داده ابری چیست و چرا توسعه‌دهندگان نرم‌افزار به آن علاقه‌مند شده‌اند؟
  • بهترین فایروال‌های رایگان لینوکس
  • آشنایی با 8 توزیع آماری مهم که باید در مورد آن‌ها اطلاع داشته باشید

پرونده ویژه

Untitled-پرونده-269 - Copy.jpg

  • از ارقام تا ارتباطات: علم داده، موتور هوش مصنوعی
  • علم داده‌ها چیست و چرا در آینده نزدیک به آن نیاز داریم؟ 
  • آمار توصیفی چه نقشی در دنیای علم داده‌ها دارد و چگونه از آن استفاده کنیم؟ 
  • آماده‌سازی داده‌ها (Data Wrangling) چیست و چگونه انجام می‌شود؟
  • علم داده‌ها چه نقشی در معماری موتورهای توصیه‌کننده دارد؟
  • مصورسازی داده‌ها چیست و به چه صورتی انجام می‌شود؟ 
  • چگونه از درخت تصمیم در علم داده‌ها استفاده کنیم؟ 
مشتری برای خرید این محصول نیاز به آدرس دارد؟: 

نسخه الکترونیکی ماهنامه شبکه 268

تصویر الناز قنبری
ارسال شده توسط الناز قنبری در 1402, مهر 3 - 11:59

نسخه الکترونیکی ماهنامه شبکه 268
در سرمقاله شماره 268 ماهنامه شبکه در ادامه سلسله مقالات هوش مصنوعی، اینبار با تفکر سیستمی آشنا می‌شوید، در فصل هوش مصنوعی با 7 نوع هوش مصنوعی پرکاربرد آشنا می‌شوید، در فصل فناوری شبکه راهنمای کاربردی‌ای ارائه شده برای انتخاب بهترین رک برای تجهیزات دیتاسنتر، در فصل امنیت با مفهوم مدیریت و حاکمیت هویت آشنا می‌شوید، در فصل کارگاه ار قابلیت‌های کاربردی PyPy و CPython در برنامه‌نویسی پایتون گفتیم و در نهایت در پرونده ویژه این شماره به سراغ گنج نهفته هر کسب‌وکار رفتیم (داده‌کاوی،جادوی داده‌ها).

هوش مصنوعی

Untitled-هوش-268.jpg

  • آشنایی با 7 نوع هوش مصنوعی پرکاربرد 
  • آشنایی با شرکت‌های پیشرو و  تاثیرگذار  بر دنیای  هوش مصنوعی

فناوری شبکه

Untitled-1فناوری-268.jpg

  • 10مهارت کاربردی که هر مدیر مرکز داده باید بداند‌
  • آشنایی با مهم‌ترین رکوردهای سامانه نام دامنه و نقش آن‌ها در دنیای شبکه 
  • چگونه بهترین رک را برای تجهیزات دیتاسنتر انتخاب کنیم؟

امنیت

Untitled-1امنیت-268.jpg

  • مدیریت و حاکمیت هویت چیست و چرا سازمان‌ها به آن نیاز دارند؟ 
  •  احراز هویت تطبیقی چیست و چگونه کار می‌کند؟

عصر شبکه

Untitled-1عصر-268.jpg

  • اقتصاد دیجیتال چیست و چرا مورد توجه کشورها  قرار گرفته است؟
  • خستگی تصمیم‌گیری چیست و چه تاثیری بر تمرکز، انگیزه و اراده دارد؟

کارگاه

Untitled-1کارگاه-268.jpg

  • وب‌سوکت چیست، چگونه کار می‌کند و چرا به آن نیاز داریم؟ 
  • PyPy و CPython چیستند و چه قابلیت‌های کاربردی در پایتون دارند؟

پرونده ویژه

در شماره 268 مجله شبکه به شما خواهیم گفت داده‌کاوی چیست، خوشه‌بندی در داده‌کاوی به چه معنا است، چگونه از داده‌کاوی برای تحلیل شبکه‌های اجتماعی استفاده کنیم، با انواع تکنیک‌های داده‌کاوی آشنا خواهیم شد، متن‌کاوی را مورد بررسی قرار می‌دهیم و در نهایت داده‌کاوی مبتنی بر قوانین ارتباط را به‌شکل عملی مورد بررسی قرار خواهیم داد.

Untitled-1پرونده-268.jpg

  • جادوی داده‌ها؛ کشف گنجینه‌های نهفته
  • داده‌کاوی چیست و چرا باید آن را جدی بگیریم؟
  • متخصصان داده‌کاوی چه الگوریتم‌ها و روش‌هایی برای استخراج اطلاعات در اختیار دارند؟
  • خوشه‌بندی در داده‌‌کاوی چه انواعی دارد و چگونه پیاده‌سازی می‌شود؟
  • چگونه از داده‌کاوی برای تحلیل شبکه‌های اجتماعی استفاده کنیم؟
  • کاوش قواعد وابستگی چیست و چگونه پیاده‌سازی می‌شود؟ 
  • متن‌کاوی چیست، چرا به آن نیاز داریم و چگونه انجام می‌شود؟ 
مشتری برای خرید این محصول نیاز به آدرس دارد؟: 

نسخه الکترونیکی ماهنامه شبکه 248

تصویر elnaz ghanbari
ارسال شده توسط elnaz ghanbari در 1400, دى 28 - 09:32

نسخه الکترونیکی ماهنامه شبکه 248
سرمقاله شماره 248 ماهنامه شبکه جمع‌‌بندی سری مقالات مهارت‌های مهم نرم و کلیدی دهه 2020 است که در 3 سال گذشته آغازگر ماهنامه بوده است. در فصل شاهراه اطلاعات با تفاوت‌ بین داده‌کاوی، یادگیری ماشین، هوش مصنوعی و یادگیری عمیق آشنا می‌شوید در فصل فناوری شبکه وای‌فای 7 وعده دسترسی به سرعت 30 گیگابیت بر ثانیه را می‌دهد در فصل امنیت یک سوال مطرح می‌شود: فناوری اطلاعات در سایه چیست؟ در فصل عصر شبکه موفقیت‌ها و شکست‌های اپل در یک دهه پس از استیو جابز بررسی می‌شود، در فصل کارگاه توضیح می‌دهیم که رمز غیرقابل معاوضه (NFT) چیست و در نهایت در پرونده ویژه این شماره با اطلاعاتی در مقیاس کوینتیلیون رو به رو می‌شوید!

پرونده ویژه

در پرونده ویژه شماره 248 ماهنامه شبکه درباره سیر تکوینی کلان داده‌ها، تاثیر و جایگاه کلان داده‌ها در علم تحقیق در عملیات، چگونگی استفاده از کلان داده‌ها برای حل مشکلات امروز ایران، معرفی مشاغل مرتبط با کلان داده‌ها و ابزارهایی که برای تحلیل کلان داده‌ها در اختیار داریم، اطلاعات جالبی به‌دست خواهید آورد.

پرونده-248jpg_1.jpg

  • اطلاعاتی در مقیاس کوینتیلیون 
  • برای ورود به عصر کلان داده‌ها آماده هستید؟ 
  • برای موفقیت در دنیای کلان داده‌ها باید با اصطلاحات تخصصی این حوزه آشنا باشید 
  • چرا بزرگ‌داده‌ها خاستگاه‌ تحقیق در عملیات هستند؟ 
  • چه ابزارهای کارآمدی برای تحلیل کلان داده‌ها در دسترس قرار دارند؟ 
  • اگر مهارت کار با کلان داده‌ها را  دارید به سراغ این مشاغل بروید 
  • چگونه از کلان داده‌ها در دنیای واقعی استفاده کنیم؟

دیدگاه

  • سرمقاله؛ ده‌ مهارت مهم نرم در سه سالِ بسیار سخت
  • در آینده، روان‌شناسی و هوش مصنوعی دو مفهوم جدایی‌ناپذیر می‌شوند 
  • فایل‌های سرگردان

شاهراه اطلاعات

شاهراه-248_0.jpg

  • تفاوت‌ بین داده‌کاوی، یادگیری ماشین، هوش مصنوعی و یادگیری عمیق
  • دنیای موبایل: آنتن‌هایی برای آینده 
  • دنیای دوربین: چشم بینای فناوری 

فناوری شبکه

فناوری-248_0.jpg

  • وای‌فای 7 با وعده دسترسی به سرعت30 گیگابیت بر ثانیه
  • پروتکل دروازه مرزی چیست و چه نقشی در دنیای شبکه‌های کامپیوتری دارد؟
  • افزونگی در شبکه چیست و روی چه تجهیزات و فناوری‌هایی قابل اجرا است؟
  • بهترین ویژگی‌های جدید ویندوز سرور

امنیت

امنیت248_0.jpg

  • «فناوری اطلاعات در سایه چیست» و چه تهدیدات امنیتی را برای سازمان‌ها ایجاد می‌کند؟
  • چگونه مانع هک شدن دوربین‌های مداربسته شویم؟

عصر شبکه

عصر-شبکه-248_0.jpg

  • یک دهه پس از استیو جابز، اپل چه موفقیت‌ها و شکست‌هایی تجربه کرده است؟
  • چرا سیستم‌های هوش مصنوعی امروزی واقعاً هوشمند نیستند؟ 
  • آیا در حوزه طراحی پردازنده‎های مرکزی جایگزین‎های بهتری نسبت به اینتل و ای‎ام‎دی وجود دارد؟

کارگاه

کارگاه248.jpg

  • رمز غیرقابل معاوضه (NFT) چیست و چگونه کار می‌کند؟
  • داکر چیست و چگونه باید از آن استفاده کنیم؟

اطلاعاتی در مقیاس کوینتیلیون

کلان داده، اصطلاحی کلی برای توصیف و سنجش حجم عظیمی از داده‌هایی است که توسط منابع مختلف تولید و جمع‌آوری می‌شوند. داده‌هایی که اغلب اوقات خام یا بدون ساختار هستند و از بانک‌های اطلاعاتی رابطه‌ای و غیررابطه‌ای به‌دست می‌آیند. نکته مهمی که پیرامون کلان داده‌ها وجود دارد و کمتر در مورد آن شنیده‌اید، این است که 85 درصد اطلاعاتی که امروزه در اختیار ما قرار دارد در چند دهه قبل تولید شده‌اند. به بیان دقیق‌تر، شما در دستیابی به کلان داده‌ها نه تنها با محدودیت زیادی روبرو نیستید، بلکه به اندازه‌ای اطلاعات در اختیار دارید که هیچ‌گاه موفق به پردازش کامل آن‌ها نخواهید شد. ‌مطالعه‌ای که چند سال قبل توسط نشریه فوربس انجام شد، نشان داد که روزانه بیش از 2.5 کوینتیلیون بایت (10 به توان 30) داده تولید می‌شود که دست‌کم نیمی از آن‌ها اطلاعات بدون ساختار هستند. در دنیایی که در این حجم عظیم از اطلاعات در حال غرق شدن است، مهم است که بتوانید تنها اطلاعاتی که برای شرکت‌تان مهم و حیاتی است را به دست آورید تا بتوانید به‌سرعت تصمیمات مهم را  اتخاذ کنید. علاوه بر این، مشکل مهم دیگری که داده‌ها دارند، ماهیت چندوجهی آن‌ها، مباحث امنیتی و مشکلات حریم خصوصی است که پردازش این حجم از داده‌ها را با مشکل روبرو کرده است. از اوایل هزاره سوم اینترنت به سرعت رشد کرد، و صنایع، شرکت‌ها و سازمان‌های مختلف اقدام به تولید و جمع‌آوری داده‌ کردند. 

آمازون S3 را در مارس 2006 به عنوان بخشی از خدمات وب آمازون (AWS) معرفی کرد. S3 یک راهکار عالی برای ذخیره فایل‌ها در فضای ابری بود، اما هیچ قابلیت مدیریت داده کارآمدی نداشت. به فاصله کوتاهی، آپاچی هدوپ (Hadoop) وارد میدان شد و راهکاری یکپارچه برای مدیریت و پردازش داده‌ها ارائه کرد. هدوپ برای مدت زمان طولانی کارآمدترین راه‌حلی بود که برای کلان داده ارائه شد. در آن زمان متخصصانی که قصد داشتند راه‌حل‌هایی مبتنی بر هدوپ را پیاده‌سازی کنند کار سختی پیش‌رو داشتند، زیرا هدوپ زیرساخت کاملا پیچیده‌ای بود و تنها توسعه‌دهندگانی که مهارت و دانش کافی در ارتباط با کدنویسی داشتند قادر به کار با هدوپ بودند. در سال 2010 میلادی هایو (Hive) معرفی شد، با این‌حال، هنوز این قابلیت را نداشت تا به‌طور کارآمدی با هدوپ یکپارچه شود. به تدریج فناوری‌های دیگری معرفی شدند و فناوری‌هایی مثل هدوپ نیز قابلیت‌های کارآمدتری در اختیار متخصصان قرار دادند. چالشی‌ترین نکته در ارتباط با کلان‌ داده‌ها تولید مداوم داده‌ها است. 

به‌طور مثال، کاربران توییتر به‌طور متوسط ​​روزانه 500 میلیون توییت منتشر می‌کنند که این تعداد روز به روز در حال افزایش است. دسترسی به توییت‌های روزانه کامل توییتر (Firehose) پرهزینه است و محدود به شرکت‌هایی می‌شود که توانایی پرداخته هزینه آن‌را داشته و به این اطلاعات نیاز دارند. تخمین زده می‌شود که دسترسی به توییت‌های تحلیل شده این شبکه اجتماعی چندصدهزار دلار در سال هزینه دارد. به‌طور معمول، هنگامی که در مورد کلان داده‌ها و پردازش آن‌ها با مدیران سازمان‌ها صحبت می‌کنیم با پرسش‌های تقریبا یکسانی روبرو می‌شویم، آیا پرداخت چنین هزینه‌ای توجیه اقتصادی دارد؟ در ازای پرداخت این مبلغ چه چیزی دریافت می‌کنیم؟ آیا دستیابی به اطلاعات تحلیل شده یک مزیت رقابتی خوب در اختیار قرار می‌دهد؟ آیا دستیابی به اطلاعات تحلیل شده باعث رونق تجاری می‌شود؟ این امکان وجود دارد که زیرساختی در شرکت پیاده‌سازی کنیم و خودمان کلان داده‌ها را تحلیل کنیم؟ 

فادی ا. حرفوش (Fady A. Harfoush) متخصص  برجسته علم داده‌ها و پردازش داده‌ها می‌گوید: «تنها یک درصد از تمام پست‌ها و توییت‌های روزانه منتشر شده در شبکه‌های اجتماعی حاوی اطلاعات ارزشمند یا کاربردی هستند که ظرفیت تبدیل شدن به دانش و بینش قابل استفاده را دارند. یافتن یک درصد اطلاعات ارزشمند همانند جست‌وجوی سوزن در انبار کاه است. اگر نتوان به راحتی بین یک توییت ارزشمند یا واقعی و یک توییت ناخواسته یا جعلی تمایز قائل شد، یک کسب‌وکار چگونه باید اطمینان حاصل کند که بازگشت سرمایه‌اش تضمین شده است؟ آیا فقط برای یک درصد باید هزینه کرد و کدام بخش از یک درصد برای کسب‌وکار ما ارزشمند است؟ چه کسی درصد درست را تعیین می‌کند؟ بدون شک شرکت‌ها تنها برای خدمات باکیفیتی که دریافت می‌کنند حاضر به پرداخت هزینه هستند.» 

در حالی که قاعده ثابتی در دنیای تجاری وجود دارد که شما در مقابل خدمات یا کالای تضمین شده هزینه را پرداخت می‌کنید، در مورد داده‌ها این قاعده صدق نمی‌کند. تقریباً در همه موارد، ارائه‌دهنده یا فروشنده داده‌ها، در قرارداد خود به وضوح به موضوع سلب مسئولیت اشاره می‌کند و اعلام می‌دارد که هیچ مسئولیتی در قبال خطاها یا داده‌های پرت نخواهد داشت و خریدار باید تمام مخاطرات مربوط به استفاده از داده‌ها را بر عهده بگیرد.  با تمام این تفاسیر، کلان داده‌ها یکی از مهم‌ترین و تاثیرگذارترین حقیقت زندگی ما هستند. هوش مصنوعی، متاورس، ماشین‌های خودران، دستاوردهای دنیای پزشکی، دستاوردهای حوزه نجوم و بسیاری از ابداعات دنیای فناوری همگی مبتنی بر تحلیل کلان داده‌ها هستند. با توجه به اهمیت ویژه‌ای که کلان داده‌ها برای جامعه ایران دارد و در واقع کلید حل بخش عمده‌ای از مشکلات جامعه ایرانی است، پرونده ویژه این شماره را به مبحث کلان داده‌ها اختصاص داده‌ایم. در پرونده ویژه این شماره درباره سیر تکوینی کلان داده‌ها، تاثیر و جایگاه کلان داده‌ها در علم تحقیق در عملیات، چگونگی استفاده از کلان داده‌ها برای حل مشکلات امروز ایران، معرفی مشاغل مرتبط با کلان داده‌ها و ابزارهایی که برای تحلیل کلان داده‌ها در اختیار داریم، اطلاعات جالبی به‌دست خواهید آورد. 

مشتری برای خرید این محصول نیاز به آدرس دارد؟: 

نسخه الکترونیکی ماهنامه شبکه 240

تصویر شایان حدادی
ارسال شده توسط شایان حدادی در 1400, خرداد 1 - 10:32

نسخه الکترونیکی ماهنامه شبکه 240
در سرمقاله شماره 240 ماهنامه شبکه در ادامه مبحث مهم مهارت تصمیم‌گیری که در دو شماره قبل با آن آشنا شدیم، یاد می‌گیریم چگونه مهارت تصمیم‌گیری خود را تقویت کنیم؟ در فصل شاهراه اطلاعات سوال جالب و عجیبی مطرح می‌شود: آیا حریم خصوصی دیجیتال با مرگ پایان می‌یابد؟ در فصل فناوری شبکه یاد می‌گیریم چگونه یک کامپیوتر قدیمی را به یک فایل سرور تبدیل کنیم و در فصل‌های دیگر مطالب آموزنده و کاربردی دیگری را می‌خوانیم. پرونده ویژه این شماره در 3 کلمه خلاصه می‌شود. 3 کلمه‌ای که حال و بخصوص آینده جهان در دست آن‌هاست: علم داده - هوش مصنوعی - بازار کار.

در پرونده ویژه این شماره به جای آن‌که تنها به معرفی مختصر حوزه‌های مختلف هوش مصنوعی بپردازیم، تصمیم گرفتیم جایگاه هوش مصنوعی در ایران و بازار کار رشته‌های جذاب این رشته در ایران را بررسی کنیم. در پرونده ویژه این شماره به شما خواهیم گفت جایگاه هوش مصنوعی و تخصصان این رشته در ایران چیست، بینایی ماشین چیست و بازار کار این فناوری چگونه است، یادگیری ماشین آنلاین چیست و چرا نقش مهمی در دنیای هوش مصنوعی دارد، یک مهندس یادگیری ماشین در سال ۱۴۰۰ به چه مهارت‌هایی نیاز دارد، پردازش زبان‌ طبیعی چیست و بازار کار آن چگونه است و سیستم‌های خبره چیستند و چه کاربردی دارند. نکته مهمی که باید در انتهای این مقدمه به آن اشاره کنیم این است که برخی از مشاغل مرتبط با هوش مصنوعی و مشاغل داده‌محور در شماره فروردین ماه 1400 بررسی شدند، بر همین اساس در این پرونده ویژه این شماره مشاغل مذکور را بررسی نکردیم.

پرونده ویژه

6.jpg

  • علم داده‌ها، قلب تپنده هوش مصنوعی 
  • هوش مصنوعی و متخصصان این رشته در ایران چه جایگاهی دارند؟ 
  • بینایی ماشین چیست و بازار کار این فناوری چگونه است؟ 
  • یادگیری ماشین آنلاین چیست و چرا نقش مهمی در دنیای هوش مصنوعی دارد؟ 
  • یک مهندس یادگیری ماشین  به چه مهارت‌هایی نیاز دارد؟ 
  • پردازش زبان‌ طبیعی چیست و بازار کار آن چگونه است؟ 
  • سیستم‌های خبره چیستند و چه کاربردی دارند؟

دیدگاه

  • سرمقاله؛ چگونه مهارت تصمیم‌گیری خود را تقویت کنیم؟- قسمت سوم
  • هوش مصنوعی و فلسفه 
  • جهنمِ اردیبهشت 

شاهراه اطلاعات

1.jpg

  • آیا حریم خصوصی دیجیتال با مرگ پایان می‌یابد؟ 
  • دنیای دوربین: حفظ حریم خصوصی در برابر ماشین‌های بینا 
  • دنیای موبایل: ردیابی کرونا با موبایل 

فناوری شبکه

2.jpg

  • چرا ‌استاندارد ZigBee در صنعت اینترنت‌اشیا  کاربرد گسترده‌ای دارد؟
  • چگونه یک کامپیوتر قدیمی را به یک فایل سرور تبدیل کنیم؟

امنیت

3_0.jpg

  • پس از حمله سایبری چه کارهایی باید انجام دهیم؟ 
  • رویکرد داده‌محور، راه شناسایی تهدیدات سایبری سازمان‌ها 

عصر شبکه

4.jpg

  • هوش مالی چیست و چه نقشی در موفقیت ما دارد؟ 
  • برنامه‌ریزی استراتژیک چیست و چگونه پیاده‌سازی می‌شود؟ 

کارگاه

5.jpg

  • کیفیت در نرم‌افزار چیست و چرا اهمیت زیادی دارد؟
  • وب‌سرویس SOAP چیست و چه نقشی در توسعه نرم‌افزارها دارد؟
مشتری برای خرید این محصول نیاز به آدرس دارد؟: 

نسخه الکترونیکی ماهنامه شبکه 231

تصویر شایان حدادی
ارسال شده توسط شایان حدادی در 1399, شهريور 1 - 07:48

نسخه الکترونیکی ماهنامه شبکه 231
ماهنامه شبکه 231 رنگ و بوی داده و داده‌کاوی دارد. در پرونده ویژه این شماره با عنوان «بانک‌های اطلاعاتی صندوقچه اسرار نوین» با انواع بانک‌های اطلاعاتی، راهنمای انتخاب یک پایگاره داده درست،نقشه‌برداری از داده‌ها و شناسایی آسیب‌پذیری‌های بانک‌های اطلاعاتی آشنا می‌شوید. در سایر فصل‌ها نیز مطالب جذاب و کاربردی‌ای از دنیای فناوری و شبکه می‌خوانید.

دیدگاه و یادداشت

  • سرمقاله؛ مدیریت یا مسئولیت 
  • آموزش آنلاین، ویروس کرونا و تحولی بزرگ در حوزه یادگیری 
  • رزومه‌های سرقتی! 

پرونده ویژه

  • بانک‌های اطلاعاتی گنجینه اسرار دنیای جدید 
  • سرپرست بانک‌اطلاعاتی کیست؟ چگونه سرپرست بانک‌‌ اطلاعاتی شویم؟ 
  • پایگاه داده نموداری چیست و چرا بهره‌وری تعاملات تجاری را بهبود می‌بخشد 
  • برای انتخاب یک پایگاه داده درست به چه نکاتی باید دقت کنیم؟ 
  • نقشه‌برداری از داده‌ها چیست و چه کمکی به مدیریت داده‌های حجیم سازمانی می‌کند؟ 
  • ‌پرکاربردترین دستورات SQL که توسعه‌دهندگان به آن‌ها نیاز دارد 
  • چگونه آسیب‌پذیری‌های درون بانک‌های اطلاعاتی را کشف و ترمیم کنیم؟ 
  • ‌بانک‌های اطلاعاتی رابطه‌ای و غیر‌رابطه‌ای چه تفاوت‌هایی با یکدیگر دارند؟ 

شاهراه اطلاعات

  • دانشمندان برای مهار ویروس کووید 19 از اپن‌سورس درخواست کمک کردند! 
  • دنیای دوربین: کمک به خودران‌های کرونازده و سوسکی با کوله‌پشتی!

فناوری شبکه

  • 11 ابزار کاربردی برای نظارت جامع بر شبکه‌ها و مدیریت آن‌ها
  • اترنت گیگابیت 1000BASE-T چیست و چگونه کار می‌کند 
  • سیسکو با ساخت تراشه ویژه‌ای آینده اینترنت را ترسیم کرد 

امنیت

  • راهنمای جامع آشنایی با آزمون ‌نفوذ‌پذیری و نحوه اجرای آن 
  •  چگونه شبکه‌های پنهان را شناسایی کنیم؟ 

عصر شبکه

  • ویروس کرونا چگونه مشاغل آینده را تحت تاثیر خود قرار می‌دهد؟
  • چرا چشم‌انداز فناوری زنجیره بلوکی روشن است؟ 

کارگاه

  • یک تحلیل‌گر داده‌ها به چه مهارت‌های کاربردی نیاز دارد؟
  • راهنمای جامع آشنایی با سیستم کنترل نسخه گیت

بانک‌های اطلاعاتی مخزن الاسرار دنیای جدید

ذخیره‌سازی و بازیابی اطلاعات به شیوه‌ای سریع و قابل اعتماد همواره مورد توجه برنامه‌نویسان و توسعه‌دهندگان سامانه‌های اطلاعاتی قرار دارد. یکی از این روش‌ها به‌کارگیری بانک‌های اطلاعاتی است. امروزه بانک‌های اطلاعاتی در حوزه‌ها و صنایع مختلف از ذخیره‌سازی سوابق پزشکی بیماران گرفته تا ذخیره‌سازی اطلاعات هویتی در سازمان‌های ثبت احوال و تامین اجتماعی استفاده می‌شوند. بانک‌های اطلاعاتی داده‌ها را به شیوه ساخت‌یافته سازمان‌دهی و نگه‌داری می‌کنند تا بازیابی اطلاعات با سهولت انجام شود. گسترش روزافزون داده‌هایی که باید ذخیره‌سازی شوند، باعث شده تا انواع مختلفی از بانک‌های اطلاعاتی ابداع شوند. بانک‌های اطلاعاتی رابطه‌ای، غیر رابطه‌ای، شی‌گرا، توزیعی، انبارهای داده، نموداری و OLTP از رایج‌ترین گزینه‌های ذخیره‌سازی اطلاعات هستند. گزینه‌های کمتر شناخته شده در ارتباط با کاربردهای خاص در حوزه‌های علمی، مالی و موارد مشابه استفاده می‌شوند. علاوه بر تنوع بانک‌های اطلاعاتی، توسعه فناوری‌ها و پیشرفت‌های مستمر رایانش ابری و خودکارسازی باعث شده تا بانک‌های اطلاعاتی به وادی جدیدی وارد شوند.

در حالت کلی هدف ذخیره‌سازی سریع و دسترسی هوشمندانه به اطلاعات است. به همین دلیل است که اصطلاحات تخصصی همچون موجودیت، جدول، فیلد، رکورد، ستون و قیود در تمامی بانک‌های اطلاعاتی تعاریف یکسانی دارند. به‌طور مثال موجودیت در بانک اطلاعاتی به هر نوع اطلاعاتی که قصد ذخیره‌سازی آن‌را داریم اطلاق می‌شود. در یک سامانه ذخیره‌سازی اطلاعات دانشگاه، دانشجو یک موجودیت و استاد یک موجودیت جداگانه است، زیرا اطلاعات مشخص کننده هویت دانشجو و استاد متفاوت هستند. داده‌ها درون بانک‌های اطلاعاتی در ساختاری به‌نام جداول ذخیره‌سازی می‌شوند. هر جدول اطلاعاتی یک موجودیت را نگه‌داری می‌کند.

به‌طور مثال، یک دفترچه تلفن ساده برای نگه‌داری اطلاعات افراد در قالب یک جدول طراحی شده و اطلاعات در آن ذخیره می‌شوند. در بانک‌های اطلاعاتی ممکن است جداول مختلفی برای نگه‌داری اطلاعات مربوط به موجودیت‌ها در نظر گرفته شده باشد. موجودیت‌ها از طریق جداول مختلف و ارتباط میان آن‌ها با یکدیگر متصل شده و گزارش‌ها یا موجودیت‌های جدیدی تولید می‌کنند. هر جدول بانک اطلاعاتی متشکل از سطرها و ستون‌هایی است که مفهومی به‌نام رکورد را پدید می‌آورند. رکوردها از مولفه‌های کوچک‌تری به‌نام فیلد ساخته می‌شوند که مقادیر درون آن‌ها ذخیره می‌شوند. قبل از پیاده‌سازی جداول طراحان باید تعداد ستون‌های موردنیاز در جدول را مشخص کنند که خود نیازمند یک فرآیند تحلیلی عمیق است، زیرا اگر ستونی در جدول درج نشود در آینده مشکلات متعددی را به همراه می‌آورد. مواردی که به آن‌ها اشاره شد الفبای ساده مباحث بانک‌های اطلاعاتی هستند. ما در عصری زندگی می‌کنیم که پیشرفت‌های سریع فناوری‌اطلاعات رشد انفجاری تولید داده‌ها و در نهایت افزایش ظرفیت رسانه‌های ذخیره‌ساز را به همراه داشته است. در دنیای کسب‌وکار بانک‌های اطلاعاتی بزرگی برای تراکنش‌های تجاری توسط خرده‌فروشان یا در مقیاس کلان‌تر تجارت الکترونیک ساخته و استفاده می‌شوند.

در سویی دیگر، روزانه حجم عظیمی از داده‌های علمی در حوزه‌های مختلف تولید می‌شوند که اطلاعات تولید شده در ارتباط با ویروس کرونا گویای این موضوع است. به همین دلیل سازمان‌ها به مجموعه روش‌های قابل اجرا روی پایگاه‌های داده بزرگ و پیچیده با هدف کشف الگوهای پنهان در میان داده‌ها نیاز دارند که به آن داده‌کاوی می‌گویند. با توجه به این‌که روش‌های داده‌کاوی با هدف آشکارسازی الگوهای موجود در داده‌ها به لحاظ محاسباتی پر هزینه هستند، امکان به‌کارگیری یک پایگاه داده خاص (رابطه‌ای) برای انجام فعالیت‌های مختلف امکان‌پذیر نیست. به همین دلیل سازمان‌ها باید کارآمدترین گزینه را برای ذخیره‌سازی و دسترسی به داده‌ها استفاده کنند. به‌کارگیری یک مدل کارآمد برای ذخیره‌سازی و بازیابی اطلاعات تنها مشکل سازمان‌ها نیست، زیرا همواره این احتمال وجود دارد که زیرساخت‌های اطلاعاتی یک سازمان قربانی یک حمله سایبری شوند و اطلاعات درون بانک‌های اطلاعاتی به سرقت بروند. در عصر جدید دستکاری یا پاک کردن رکوردهای اطلاعاتی کمترین دغدغه سازمان‌های بزرگ است، زیرا سازمان‌ها به راحتی می‌توانند از نسخه‌های پشتیبانی برای جایگزینی اطلاعات تحریف شده با اطلاعات صحیح استفاده کنند. مهم اطلاعات ارزشمندی است که به سرقت می‌روند و در بازار سیاه به قیمت‌های نجومی به فروش می‌رسند. به همین دلیل سازمان‌ها به دنبال افرادی هستند که بتوانند به شیوه اصولی و ایمن بانک‌های اطلاعاتی را طراحی کنند. این افراد سرپرستان بانک‌های ‌اطلاعاتی نام دارند.

اولین وظیفه یک طراح بانک اطلاعاتی ساخت یک مدل داده مفهومی انعکاس‌دهنده ساختار منطقی بانک اطلاعاتی است. ساخت مدل داده مفهومی گاهی اوقات شامل دریافت ورودی از فرآیندهای کسب‌وکار و تجزیه و تحلیل گردش کار سازمان است. مرحله بعد ترجمه مدل مفهومی در قالب پیاده‌سازی ساختمان داده‌های مرتبط با بانک‌اطلاعاتی ‌است. این فرآیند به‌نام طراحی بانک‌های اطلاعاتی منطقی و خروجی مدل منطقی داده‌ها در قالب یک طرح توصیف می‌شود.

در حالی که مدل داده مفهومی مستقل از انتخاب فناوری بانک اطلاعاتی است، مدل منطقی داده‌ها یک مدل بانک اطلاعاتی خاص پشتیبانی شده توسط DBMS انتخابی است. بحث درباره بانک‌های اطلاعاتی و مباحث مرتبط با این فناوری فراتر از یک مقدمه کوتاه است، زیرا مباحث بسیار زیادی را شامل می‌شود، اما این‌ امکان وجود دارد تا در قالب مطالبی کوتاه و کاربردی خوانندگان را با مباحث مهم پیرامون بانک‌های اطلاعاتی آشنا کنیم. در پرونده ویژه این شماره ماهنامه شبکه به شما خواهیم گفت سرپرست بانک‌اطلاعاتی کیست و چگونه سرپرست بانک‌‌ اطلاعاتی شویم، برای انتخاب یک پایگاه داده درست به چه نکاتی باید دقت کنیم، بانک‌های اطلاعاتی رابطه‌ای و غیر رابطه‌ای چه تفاوت‌هایی با یکدیگر دارند، پایگاه داده نموداری چیست و چرا بهره‌وری تعاملات تجاری را بهبود می‌بخشد، ‌پرکاربردترین دستورات SQL که توسعه‌دهندگان به آن‌ها نیاز دارد، چگونه آسیب‌پذیری‌های درون بانک‌های اطلاعاتی را کشف و ترمیم کنیم، نقشه‌برداری از داده‌ها چیست و چه کمکی به مدیریت داده‌های حجیم سازمانی می‌کند.

مشتری برای خرید این محصول نیاز به آدرس دارد؟: 

کتاب مکاتب، متدولوژی، طراحی، مدیریت و نگهداری مراکز داده

تصویر شایان حدادی
ارسال شده توسط شایان حدادی در 1397, اسفند 21 - 09:18

کتاب مکاتب، متدولوژی، طراحی، مدیریت و نگهداری مراکز داده
آشنایی تخصصی با دکترین، متدولوژی مراکز داده، از آن‌جهت اهمیت دارد که باعث آگاهی کارشناسان و اهالی فن شاغل در این صنعت، با نگرش‌های جدید در این حوزه بسیار مهم و حیاتی شده و روزآمدسازی اطلاعات تخصصی آنان را در پی داشته و همچنین موجب افزایش توانمندی‌های نگرشی و مدیریتی آنان خواهد شد.

قیمت کتاب: 460000 ریال
هزینه پست سفارشی: 90000 ریال

قیمت قابل پرداخت: 550000 ریال

کتاب مکاتب، متدولوژی، طراحی، مدیریت و نگهداری مراکز داده در نظر دارد، دید تخصصی را در حوزه دکترین طراحی و پیاده‌سازی مراکز داده، متدولوژی طراحی و ساخت مراکز داده، طراحی مفهومی و تفصیلی مراکز داده، زیرساخت بحرانی و غیربحرانی مراکز داده، مدیریت مراکز داده از حیث اجرای پروژه مراکز داده تا مدیریت بهره‌برداری و درنهایت نگهداری و تعمیرات مراکز داده، استانداردها و انواع نگهداری و تعمیرات را در اذهان کارشناسان و اهالی فن گسترش داده و نهادینه کرده و مباحث تخصصی را یک‌جا، به‌صورت منظوم و مکتوب و با بیانی قابل‌فهم ارایه کند تا منبعی برای آغاز تهیه کتاب‌های تخصصی‌تر بر اساس این نگرش ایجاد کند.

دکتر بهرام زاهدی مولف این اثردر رابطه با تالیف این کتاب گفته‌ است: «آشنایی تخصصی با دکترین متدولوژی مراکز داده، از آن‌جهت اهمیت دارد که باعث آشنایی کارشناسان و مشتاقان این صنعت، با نگرش‌های جدید در این حوزه بسیار مهم و حیاتی شده و روزآمدسازی اطلاعات تخصصی آنان را در پی خواهد داشت.  همچنین موجب افزایش توانمندی‌های نگرشی و مدیریتی آنان در این حوزه خواهد شد.»

همچنین دکتر محمدجواد بابایی دیگر مولف این کتاب نیز در این رابطه اظهار داشت: «کتاب مکاتب، متدولوژی، طراحی، مدیریت و نگهداری مراکز داده در نظر دارد، دید تخصصی را در حوزه دکترین طراحی و پیاده‌سازی، متدولوژی طراحی و ساخت، طراحی مفهومی و تفصیلی، آشنایی با زیرساخت بحرانی و غیربحرانی مراکز داده و مدیریت پروژه‌های مرکز داده از حیث اجرای پروژه تا مدیریت بهره‌برداری و درنهایت نگهداری و تعمیرات مراکز داده، استانداردها و انواع نگهداری و تعمیرات را در اذهان کارشناسان و اهالی فن گسترش داده و نهادینه کند. از ویژگی‌های این کتاب مرجع این است که مباحث تخصصی را یک‌جا، به‌صورت منظم و مکتوب و با بیانی قابل‌فهم ارائه می‌کند تا منبعی برای آغاز تهیه کتاب‌های تخصصی‌تر بر اساس این نگرش ایجاد کند.»

مطالعه این کتاب به افراد زیر توصیه می‌شود:

  • دانشجویان فناوری‌اطلاعات و ارتباطات به‌خصوص دانشجویان گرایش سخت‌افزار و فناوری‌اطلاعات، اینترنت اشیا، کلان داده، تجارت الکترونیک و گرایش‌های مرتبط؛
  • کارشناسان فعال در صنعت مراکز داده؛
  • کارشناسان مبتدی برای افزایش آگاهی‌های تخصصی در حوزه صنعت مراکز داده؛
  • مدیران، ذی‌نفعان، مالکان و اداره‌کنندگان مراکز داده؛
  • کارشناسان سایر رشته‌های فعال در صنعت مراکز داده؛
  • علاقه‌مندان به‌صنعت مراکز داده که به‌صورت حرفه‌ای این صنعت را دنبال می‌کنند.

فهرست فصول کتاب:

  • فصل اول: مکاتب و متدولوژی طراحی و ساخت مراکز داده
  • فصل دوم: ذینفعان مراکز داده
  • فصل سوم: زیست چرخ مراکز داده
  • فصل چهارم: طراحی مرکز داده
  • فصل پنجم: مدیریت مراکز داده
  • فصل ششم: نگهداری و تعمیرات مراکز داده
مشتری برای خرید این محصول نیاز به آدرس دارد؟: 
مشتری برای خرید این محصول نیاز به آدرس دارد؟
کلمات کلیدی: 

نسخه الکترونیکی ماهنامه شبکه 197

تصویر شایان حدادی
ارسال شده توسط شایان حدادی در 1396, مهر 21 - 12:21

نسخه الکترونیکی ماهنامه شبکه 197
ماهنامه شبکه با پرونده ویژه "داده‌های بزرگ؛ فردای بزرگ‌تر" منتشر شد. در این پرونده ویژه ابتدا به شما می‌گوییم بزرگ داده‌ها چه هستند و چه تاثیری بر صنایعی همچون نرم‌افزار و اینترنت اشیا دارند. در ادامه به شما روندهای برتر این حوزه‌ را معرفی خواهیم کرد و برای آن‌که به یک متخصص بزرگ داده‌ها تبدیل شوید به چه ملزوماتی نیاز دارید. در نهایت به فرصت‌های شغلی این حوزه به‌طور اجمالی نگاهی خواهیم کرد. همچنین در فصل دانش کامپیوتر این شماره به معرفی رشته‌های کامپیوتر، مبانی کامپیوتر و برنامه نویسی و دلایل محبوبیت زبان پایتون در دانشگاه ها پرداختیم.

دیدگاه و خبر

سرمقاله؛ اسطوره، تعادل هم خوب است
اینترنت اشیا، انقلاب بهره‌وری و کشف ناشناخته‌ها است
آمدی جانم به قربانت ولی چه به موقع آمدی!
جنگ داده‌ها و فتح من ما
نظام صنفی
اخبار ایران
گزارش ویژه
بررسی محصول

شاهراه اطلاعات

تلاشی برای تصویرسازی خاطرات
دنیای دوربین: دوستان ماشینی ما
دنیای موبایل: ابزاری به بزرگی دنیا
رقابتی با هدف تسلط بر یک فناوری مخاطره‌آمیز

فناوری شبکه

شبکه‌های ‌گسترده کم‌توان چه شبکه‌هایی هستند؟
 NOCچیست و چگونه دسترسی به مراکز داده را بهبود می‌بخشد؟
راهکار جامع گوگل برای حل مشکل رفع ازدحام در شبکه چیست؟
معماری و زیرساخت‌های ارتباطات ماشین به ماشین
تجربه نسل پنجم وای‌فای با کمترین هزینه
به این ۵ دلیل زمان به‌روزرسانی سرور شما فرارسیده است!
چرا TD-LTE برای اینترنت خانگی مناسب‌تر است؟
تازه های شبکه
سیستم‌های نظارت تصویری D-Link

دانش کامپیوتر

دعوت به دانش کامپیوتر
آشنایی با رشته علوم کامپیوتر
مبانی کامپیوتر و برنامه‌نویسی، اولین برخورد
چرا تدریس زبان پایتون در دانشگاه‌ها محبوب شده است؟

امنیت

مکانیزم احراز هویت دوعاملی چیست و چرا سازمان‌ها از آن استفاده می‌کنند؟
بیگانه‌ای پرسه می‌زند

هنر و سرگرمی

حاشیه و متن (بررسی بازی Pro Evolution Soccer 2018 )
یک نگاه، چند بازی

عصر شبکه

در اقتصاد گیگ چه می‌گذرد؟
ربات عصیانگر در شهر بی‌قانون؛ آغاز عصر وحشت
بیت‌کوین و پسرعموهای دیجیتالی آن در زیر ذره‌بین

کارگاه

21 دلیل تا یکی از این زبان‌ها را بیاموزید: پایتون، هادوپ یا R
راهنمای جامع چهارچوب‎های برتر Node.js
سرور ذخیره‌ساز کلاود شخصی خودتان را بسازید

پرونده ویژه

دنیایی که در آن داده‌ها حرف اول و آخر را می‌زنند
بزرگ ‌داده‌ها چه هستند و چرا باید به آن‌ها اهمیت دهیم؟
10 روند برتر بزرگ داده‎ها در سال 2017
چگونه می‌توانیم به یک مهندس داده‌ تبدیل شویم؟
شش پرسشی که هر کسب ‌و کاری باید درباره معماری بزرگ داده‌ها مطرح کند
بزرگ داده‌ها می‌توانند به سلاح‌های مخرب و خطرناک تبدیل شوند
تصورات اشتباه در ارتباط با مدل‌های داده‌ای
بزرگ داده‌ها و فرصت‌های شغلی در آینده نزدیک

کلمات کلیدی: 

صفحه‌ها