รูปแบบของข้อมูล Big Data ประกอบไปด้วยอะไรบ้าง

ใครมุ่งเน้นในเรื่องข้อมูลขนาดใหญ่?

ข้อมูลขนาดใหญ่มีความสำคัญสำหรับหลายอุตสาหกรรม การมาถึงของ IoT และอุปกรณ์ที่เชื่อมต่ออื่นๆ ทำให้การเก็บรวบรวม การจัดการ และการวิเคราะห์ข้อมูลขององค์กรมีปริมาณเพิ่มขึ้นมหาศาล ข้อมูลขนาดใหญ่มาพร้อมกับศักยภาพในการปลดล็อกข้อมูลเชิงลึกในข้อมูลขนาดใหญ่ – สำหรับทุกอุตสาหกรรม ตั้งแต่ขนาดใหญ่ไปจนถึงขนาดเล็ก

  • เลือกอุตสาหกรรม
  • ธุรกิจค้าปลีก
  • ภาคอุตสาหกรรมการผลิต
  • ภาคการธนาคาร
  • ภาคการแพทย์และบริการด้านสุขภาพ
  • การศึกษา
  • ธุรกิจขนาดกลางและขนาดเล็ก
  • ภาครัฐ
  • ภาคการประกันภัย

ธุรกิจค้าปลีก

การสร้างความสัมพันธ์กับลูกค้ามีความสำคัญต่ออุตสาหกรรมค้าปลีกและวิธีที่ดีที่สุดในการบริหารก็คือการจัดการข้อมูลขนาดใหญ่ ผู้ค้าปลีกจำเป็นต้องรู้วิธีที่ดีที่สุดในการทำตลาดกับลูกค้า วิธีที่มีประสิทธิภาพมากที่สุดในการจัดการธุรกรรม และกลยุทธ์ที่ดีที่สุดในการฟื้นฟูธุรกิจที่ซบเซา ข้อมูลขนาดใหญ่ยังคงเป็นหัวใจสำคัญสำหรับเรื่องเหล่านี้

ภาคอุตสาหกรรมการผลิต

การมีความเข้าใจในเชิงลึกเกี่ยวกับข้อมูลขนาดใหญ่สามารถช่วยให้ผู้ผลิตสามารถเพิ่มคุณภาพและผลผลิตได้ในขณะที่ลดของเสียลง ซึ่งเป็นกระบวนการที่เป็นหัวใจสำคัญในตลาดที่มีการแข่งขันสูงในปัจจุบัน มีผู้ผลิตจำนวนมากขึ้นกำลังทำงานในวัฒนธรรมที่ยึดตามการวิเคราะห์ ซึ่งหมายความว่าพวกเขาสามารถแก้ปัญหาได้เร็วขึ้นและตัดสินใจทางธุรกิจได้รวดเร็วยิ่งขึ้น

ภาคการธนาคาร

ด้วยการสตรีมข้อมูลจำนวนมากจากแหล่งที่มาที่นับไม่ถ้วน ธนาคารต้องเผชิญกับการค้นหาวิธีการใหม่ๆ และเป็นนวัตกรรมในการจัดการข้อมูลขนาดใหญ่ ในขณะที่ต้องทำความเข้าใจเกี่ยวกับลูกค้าและเพิ่มความพึงพอใจของพวกเขา สิ่งที่มีความสำคัญเท่ากันก็คือการลดความเสี่ยงและการทุจริตในขณะที่ยังคงปฏิบัติตามกฎระเบียบ ข้อมูลขนาดใหญ่นำเสนอข้อมูลเชิงลึกที่ใหญ่ยิ่ง แต่สถาบันการเงินก็ยังต้องยืนอยู่ข้างหน้าการแข่งขันหนึ่งก้าวด้วยการวิเคราะห์ขั้นสูง

ภาคการแพทย์และบริการด้านสุขภาพ

ระเบียนผู้ป่วย แผนการรักษา ข้อมูลการจ่ายยา เมื่อพูดถึงการดูแลสุขภาพ ทุกอย่างจะต้องดำเนินการอย่างรวดเร็ว ถูกต้อง และในบางกรณีต้องมีความโปร่งใสมากพอเพื่อให้สอดคล้องกับกฎระเบียบที่เข้มงวดของอุตสาหกรรม หากมีการขัดการข้อมูลขนาดใหญ่อย่างมีประสิทธิภาพ ผู้ให้บริการด้านการดูแลสุขภาพจะสามารถค้นพบข้อมูลเชิงลึกที่ซ่อนอยู่ได้ ซึ่งจะช่วยปรับปรุงการดูแลผู้ป่วยให้ดียิ่งขึ้น

การศึกษา

นักวิชาการที่มีข้อมูลเชิงลึกสามารถสร้างผลกระทบต่อระบบโรงเรียน นักเรียน และหลักสูตรได้อย่างอย่างมีนัยสำคัญ โดยการวิเคราะห์ข้อมูลขนาดใหญ่จะช่วยให้สามารถทราบเกี่ยวกับนักเรียนที่มีความเสี่ยง ทำให้มั่นใจได้ว่านักเรียนมีความคืบหน้าที่ดีพอ และสามารถใช้ระบบที่ดีขึ้นในการประเมินผลและการสนับสนุนครูอาจารย์และผู้อำนวยการ

ธุรกิจขนาดกลางและขนาดเล็ก

เนื่องจากมีความง่ายมากขึ้นในการเก็บรวบรวมข้อมูลขนาดใหญ่และยังตัวมีเลือกมากขึ้นที่มีราคาถูกลงในการจัดการ การจัดเก็บ และวิเคราะห์ข้อมูล SMB จึงมีโอกาสที่ดีขึ้นในการแข่งขันกับคู่แข่งรายใหญ่กว่า SMB สามารถใช้ข้อมูลขนาดใหญ่พร้อมการวิเคราะห์เพื่อลดต้นทุน เพิ่มประสิทธิภาพการผลิต สร้างความสัมพันธ์กับลูกค้าที่แข็งแกร่งยิ่งขึ้น และลดความเสี่ยงและการฉ้อโกงลง

ภาครัฐ

หากหน่วยงานของรัฐสามารถควบคุมและนำการวิเคราะห์ไปใช้กับข้อมูลขนาดใหญ่ หน่วยงานเหล่านี้จะได้รับข้อมูลที่สำคัญในเรื่องการจัดการระบบสาธารณูปโภค การบริหารหน่วยงาน การรับมือกับปัญหาการจราจรติดขัดหรือป้องกันอาชญากรรม แต่ในขณะที่ข้อมูลขนาดใหญ่มีข้อดีมากมาย รัฐบาลจะต้องแก้ไขปัญหาความโปร่งใสและความเป็นส่วนตัวควบคู่ไปด้วย

ภาคการประกันภัย

Telematics, ข้อมูลเซ็นเซอร์, ข้อมูลสภาพอากาศ, โดรน และข้อมูลภาพทางอากาศ – ผู้รับประกันได้รับการไหลเข้าจนเอ่อล้นของข้อมูลขนาดใหญ่ การรวมข้อมูลขนาดใหญ่เข้ากับการวิเคราะห์เป็นการให้ข้อมูลเชิงลึกใหม่ที่สามารถผลักดันการเปลี่ยนแปลงไปสู่ดิจิทัลได้ ตัวอย่างเช่น ข้อมูลขนาดใหญ่ช่วยให้บริษัทประกันภัยประเมินความเสี่ยง ได้ดียิ่งขึ้นกำหนดราคากรมธรรม์ใหม่ ทำข้อเสนอที่เป็นส่วนตัวสูงได้ดียิ่งขึ้น และมีความกระตือรือร้นมากขึ้นในการป้องกันการสูญเสีย

Big Data องค์ประกอบของระบบข้อมูลขนาดใหญ่ (Big data Elements)

รูปแบบของข้อมูล Big Data ประกอบไปด้วยอะไรบ้าง
 

Big Data องค์ประกอบของระบบข้อมูลขนาดใหญ่ (Big data Elements) การเริ่มต้นทำ Big Data Project ที่ดี คือ การเข้าใจว่าปัญหาขององค์กรคืออะไร อยู่ ณ ส่วนใดขององค์ประกอบของระบบ Data บางที่มีปัญหาเรื่องไม่มีแหล่งที่มาของข้อมูล บางที่มีปัญหาไม่สามารถเชื่อมโยงข้อมูลได้ บางที่มีปัญหาไม่สามารถวิเคราะห์ได้ บางที่ไม่สามารถแสดงผลได้ และหลายที่ มีปัญหาที่ไม่รู้ว่าตัวเองมีปัญหาอะไรประกอบด้วย  5 ส่วน ได้แก่ 

1. แหล่งที่มาของข้อมูล (Data Source ) เป็นแหล่งข้อมูลต้นน้ำที่จะนำเข้าสู่ระบบ (Input) อาจจะเป็นข้อมูล (Data) ฐานข้อมูล (Data Base) ข้อมูลในโปรแกรมระบบ (Application) หรือสารสนเทศ (Informatione) ที่ได้จากแหล่งต่าง ๆ มักจะมาจากแหล่งข้อมูลที่หลากหลายมีรูปแบบข้อมูลแตกต่างกันไปหลาหลาย เกิดความยากลำบากในการจัดการข้อมูลโครงสร้างแตกต่างกัน ในการที่จะนำมาจัดเตรียมให้ข้อมูลที่นำมารวมกันนั้นมีความพร้อมใช้ต่อไป 

2. ช่องทางการเชื่อมโยงข้อมูล (Gateway) การเชื่อมโยงข้อมูล เป็นส่วนที่สำคัญมากและเป็นปัญหาใหญ่ในการทำงาน Big Data ในส่วนนี้ต้องอาศัยทักษะของวิศวกรข้อมูล (Data Engineer) ในส่วนของการเชื่อมโยงข้อมูลโดยการใช้กระบวนการจัดการ ETL (Extract-Transform-Load) หรือโปรแกรม ETL ซึ่งมีหลายแบบ ทั้งเป็นโปรแกรม Software หรือเป็น Function ในโปรแกรม Cloud Computing มีทั้งแบบที่ทำการเขียนโปรแกรมเองและใช้เครื่องมือสำเร็จที่มีอยู่มากมาย การออกแบบช่องทางการเชื่อมโยงข้อมูลจะทำได้อย่างสมบูรณ์จึงจำเป็นต้องทราบก่อนว่าจะนำข้อมูลใดไปทำอะไรต่อบ้าง เพื่อสร้างช่องทางการเชื่อมข้อมูลมาจัดการก่อนที่จะส่งไปเก็บที่คลังข้อมูลต่อไป

3. คลังข้อมูล (Data Warehouse) หรือแหล่งเก็บข้อมูล (Storage) เป็นการรวบรวมเก็บข้อมูลที่ผ่านการจัดการจากแหล่งข้อมูลต่าง ๆ  จากหลายแหล่ง มาเก็บไว้เพื่อรอการใช้งานในขั้นตอนต่อไป ซึ่งอาจจะเป็นที่พักข้อมูลให้พร้อมใช้ สำรองข้อมูล หรือเป็นแหล่งเก็บข้อมูลที่มีการเปลี่ยนแปลในอดีต

4. การวิเคราะห์ข้อมูล (Analytics) ส่วนนี้เป็นหน้าที่หลักของ Data Scientist ซึ่งแบ่งงานออกเป็น 2 ลักษณะ คือ การวิเคราะห์เบื้องต้น โดยการใช้วิธีทางสถิติ หรือจะเป็นการวิเคราะห์เชิงลึกโดยการสร้าง Model แบบต่าง ๆ รวมไปถึงการใช้ Machine Learning เพื่อให้ได้ผลลัพธ์เฉพาะจงเจาะในแต่ละปัญหา และแต่ละชุดข้อมูลในส่วนของ Analytics เองก็เช่นกัน เฉพาะ Machine Learning ก็มี Algorithm มากมาย และยังต้องมีการปรับค่า Parameter อีกด้วย ไม่ร่วมไปถึงการออกแบบตัวแปร ว่าจะนำข้อมูลใดมาวิเคราะห์ เพื่อให้ได้ผลลัพธ์อะไร เรียกได้ว่า แค่ความรู้อย่างเดียวไม่ได้ ต้องมีประสบการณ์ในการระบุปัญหา และทักษะในการออกแบบการใช้ Model อีกด้วย

5. การรายงาน (Report) หรือใช้ผลการวิเคราะห์ข้อมูล (Result/Action) ผลลัพธ์ที่ได้จากการวิเคราะห์สามารถนำไปใช้งานได้ 2 รูปแบบ คือ ออกเป็นรายงาน (Report) เพื่อให้ Data Analyst นำผลลัพธ์ที่ได้ไปใช้กับงานทางธุรกิจต่อไป หรือจะเป็นการนำไปกระทำเลยโดยที่ไม่ต้องมีมนุษย์คอยตรวจสอบ ซึ่งจำเป็นต้องมีการเขียนโปรแกรมเพิ่มเพื่อให้มีการกระทำออกไปที่เรียกว่าการทำแบบอัตตโนมัติ Artificial Intelligence 

การทำงานในนิเวศน์ข้อมูลขนาดใหญ่ (Big Data Ecosystem) ให้ได้ทั้งหมดทำได้ยากและต้องใช้เวลา จึงควรต้องมีการวางเป้าหมายให้ชัดว่าต้องการอะไร ทำควรเข้าใจในภาพรวมหรือต้องการทำเองให้เป็น

ที่มา www.iok2u.com