9 ก.ย. 2563

Big Data

 

ประวัติความเป็นมาของข้อมูลขนาดใหญ่

คำว่า "ข้อมูลขนาดใหญ่" หมายถึงข้อมูลที่มีขนาดใหญ่ เร็ว หรือซับซ้อนจนยากหรือเป็นไปไม่ได้ที่จะประมวลผลโดยใช้วิธีการแบบเดิม การเข้าถึงและจัดเก็บข้อมูลจำนวนมากเพื่อทำการวิเคราะห์มีมานานแล้ว แต่แนวคิดเกี่ยวกับข้อมูลขนาดใหญ่เป็นที่แพร่หลายในช่วงต้นปีค.ศ. 2000 เมื่อดั๊ก ลานีย์ นักวิเคราะห์อุตสาหกรรมได้ให้คำจำกัดความที่เป็นที่เข้าใจกันในขณะนี้ว่า ข้อมูลขนาดใหญ่ประกอบด้วย3Vs:

Volume (ปริมาณ) : องค์กรต่างๆ รวบรวมข้อมูลจากหลากหลายแหล่ง ซึ่งรวมถึงธุรกรรมของธุรกิจ อุปกรณ์อัจฉริยะ (IoT) อุปกรณ์อุตสาหกรรม วิดีโอ โซเชียลมีเดีย และอื่นๆ ในอดีต การจัดเก็บข้อมูลถือเป็นปัญหาใหญ่ – แต่เมื่อค่าใช้จ่ายในการจัดเก็บบนแพลตฟอร์มต่างๆ เช่น พื้นที่จัดเก็บข้อมูลส่วนกลาง (Data Lake) และ Hadoop ลดลง ภาระนี้จึงบรรเทาลง

Velocity (ความเร็ว) : ด้วยการเติบโตของ Internet of Things ข้อมูลจะถูกส่งไปยังธุรกิจต่างๆ ด้วยความเร็วที่ไม่เคยมีมาก่อนและต้องได้รับการจัดการในเวลาที่เหมาะสม แท็ก RFID, เซ็นเซอร์ และสมาร์ทมิเตอร์ช่วยผลักดันความต้องการในการจัดการกับกระแสข้อมูลเหล่านี้ในแบบเรียลไทม์

Variety (ความหลากหลาย) : ข้อมูลมีในทุกรูปแบบ นับตั้งแต่ข้อมูลที่มีโครงสร้าง ตัวเลขในฐานข้อมูลแบบดั้งเดิม ไปจนถึงเอกสารข้อความ อีเมล วิดีโอ เสียง ข้อมูลหุ้น และธุรกรรมทางการเงิน

ที่ SAS เราคำนึงสองมิติเพิ่มเติมเมื่อกล่าวถึงBig Data ได้แก่

ความผันแปร:

นอกเหนือจากความเร็วที่เพิ่มขึ้นและความหลากหลายของข้อมูลแล้ว การไหลของข้อมูลยังไม่สามารถคาดการณ์ได้ – มีการเปลี่ยนแปลงบ่อยครั้งและแตกต่างกันอย่างมาก ซึ่งเป็นความท้าทายอย่างยิ่ง แต่ธุรกิจก็จำเป็นต้องทราบเมื่อมีเรื่องที่กำลังเป็นที่กล่าวขานในโซเชียลมีเดีย และรวมถึงวิธีจัดการข้อมูลประจำวัน ตามฤดูกาล และเมื่อเกิดเหตุการณ์ที่ทำให้มีกระแสข้อมูลในระดับสูงสุด

ความถูกต้อง:

ความถูกต้องหมายถึงคุณภาพของข้อมูล เนื่องจากข้อมูลมาจากแหล่งที่แตกต่างกัน จึงเป็นการยากที่จะเชื่อมโยง จับคู่ คัดกรอง และแปลงข้อมูลให้เข้ากับหลายระบบ ธุรกิจจำเป็นต้องเชื่อมต่อและเชื่อมโยงความสัมพันธ์ จัดลำดับชั้น และเชื่อมโยงข้อมูลที่หลากหลาย มิฉะนั้นข้อมูลของพวกเขาจะไม่สามารถควบคุมได้อย่างรวดเร็ว

Big Data :: พื้นฐานมันสำคัญมากนะ

ไม่มีความคิดเห็น:

แสดงความคิดเห็น