هادوپ

2016 را می‎توان سالی پررونق در عرصه داده‎های حجیم دانست، زیرا سازمان‎های بیشتری به ذخیره، پردازش و استخراج همه نوع فرمت و اندازه‎ای از داده پرداختند. در سال 2017 نیز سیستم‎هایی که از داده‎ها در مقیاس بزرگ در هر دو شکل ساخت‌یافته و بدون ساختار پشتیبانی می‎کنند، در حال اضافه شدن هستند. این بازار به سکوهایی نیاز خواهد داشت که از داده‎ها نگهداری کند و آن‌ها را در زمان استفاده کاربر نهایی برای تجزیه و تحلیل امن باقی نگه دارد. این سیستم‎ها به‌خوبی در داخل سیستم‎های فناوری اطلاعات و استانداردهای سازمانی کار می‎کنند. اما برای آنکه با کم و کیف این تغییرات در سال جاری بیشتر آشنا شوید، 10 روند برتر بزرگ داده‎ها در سال جاری را مورد بررسی قرار داده‎‎ایم.
هرچه اهمیت تجزیه و تحلیل بزرگ داده‌ها در شرکت‎های SaaS (نرم‌افزار به‌عنوان خدمات) بیشتر می‎شود، رقابت برای دستیابی به سطوح جدید و بی‎سابقه در آن‌ها نیز بیشتر می‎شود. با فرصت‎های شغلی گوناگون فراهم شده و حقوق و مزایای قابل ملاحظه آن، تحلیلگران بزرگ داده‌ها در مرتبه بالایی از پرستيژ کاری، امنیت شغلی و درآمد قرار گرفته‎اند. شما نیز اگر خود را به یک گواهی‌نامه علوم داده مجهز کنید، شاید بتوانيد از این مزایا برخوردار شوید. اما اگر شما با این حوزه آشنا نباشید چه؟ از کجا شروع می‎کنید؟ چه چیزهایی را برای شروع باید یاد بگیرید تا بتوانيد به دنیای علوم داده قدم بگذارید؟ ما این پرسش‎ها را با متخصصان این صنعت مطرح کردیم و آن‌ها نیز یک جواب نسبتاً مشخص به ما دادند؛ هادوپ،R و پایتون. یادگیری این زبان‎ها برای وارد شدن به این صنعت ضروری است. چرا؟ در ادامه این مقاله با ما همراه باشید تا ببینیم چرا شما باید امسال اولويت اول خود را به یادگیری آن‌ها اختصاص دهید.
کافکا معماری پردازش جریان داده‌ای لینکدین، بدون رقیب
16 شهريور 1396
کافکا معماری پردازش جریان داده‌ها است که اولین بار در سال 2011 از سوی مهندسان لینکدین به منظور اداره کردن حجم انبوهی از داده‌هایی که به صورت بلادرنگ تولید می‌شوند ابداع گردید. کافکا اغلب در معماری‌های مربوط به استریم کردن بلادرنگ داده‌ها مورد استفاده قرار می‌گیرد تا یک تحلیل بلادرنگ را ارائه کند. در شش سال گذشته رشد انفجاری کافکا تعجب کارشناسان را برانگیخته است.
اشتراک در هادوپ