![]() |
البيانات الضخمة Big Data |
![]() ![]() |
![]() |
![]() |
اعداد: أ۔ معالي الحربي تمت اضافة كلمة Big Data الى قاموس Oxford ككلمة انجليزية مستحدثة، بسبب الوقت والجهد والتكلفة الكبيرة التي تحتاجها البيانات الضخمة لتحليلها ومعالجتها اضطر التقنيون على الاعتماد على أنظمة الذكاء الاصطناعي Artificial Intelligence التي لديها القدرة على التعلم والاستنتاج ورد الفعل على أوضاع لم تبرمج في الآلة باستخدام خوارزميات معقدة للعمل عليها، بالإضافة إلى استخدام تقنيات الحوسبة السحابية لإتمام عملها. عادة يكون المقصود به البيانات الضخمة هي البيانات التي تقاس بالبيتا بايت petabyte أو الايكسا بايت Exabyte، ووفقاً لــ IBM فإنها ابتداءاً من العام 2012 الميلادية فإننا يومياً ننشأ ما يقارب 2.5 كوينتيليون بايت من البيانات الضخمة.
يعرف الخبراء البيانات الضخمة بأنها أي مجموعة من البيانات التي هي بحجم يفوق قدرة معالجتها باستخدام أدوات قواعد البيانات التقليدية من التقاط، ومشاركة ونقل، وتخزين، وإدارة وتحليل في غصون فترة زمنية مقبولة لتلك البيانات؛ ومن وجهة نظر مقدمي الخدمات، هي الأدوات والعمليات التي تحتاجها المنظمات للتعامل مع كمية كبيرة من البيانات لغرض التحليل.
والكثير منا يعتقد بأن البيانات الضخمة تصنف وفقا للحجم فقط، في الحقيقة هي تصنف وفقا لمبدأ (3V's) ويتكون من:
•الحجم Volume. •التنوع Variety. •السرعة Velocity.
ومن أمثلة البيانات الضخمة في واقعنا اليومي:
في زمننا هذا نشهد انفجارا ضخما في البيانات فتحليل ومعالجة هذه البيانات يزيد بشكل رئيسي في فهم واستيعاب متطلبات العملاء وبالتالي زيادة الكفاءة والانتاجية وتقليل الخسائر بالنسبة للشركات. ومع مرور الوقت والتقدم التكنولوجي، فمن المتوقع إحراز تقدم كبير فيما يتعلق بمعالجة تحديات ومعوقات استخدام البيانات الضخمة بشكل أوسع. المصدر: Mckinsey&Company: Big Data: The next frontier for innovation,competition and productivity. May 2011
|
المشاهدات 2611 تاريخ الإضافة 2020/08/12 آخر تحديث 2025/03/15 - 02:03 رقم المحتوى 471 |