Big Data ใคร ๆ ก็พูดแต่ Big Data

Big Data (บิ๊กดาต้า – บิ๊กเดต้า ตามแต่สำเนียง) เป็นเรื่องน่าสนใจ นึกถึงมิตรสหายท่านหนึ่งเคยโพสต์สเตตัสในเฟซบุ๊กเมื่อสัก สี่หรือห้าปีที่แล้วว่า “Big Data ก็เหมือนเซ็กซ์ ทุกคนพูดถึงมันราวกับเป็นผู้เชี่ยวชาญ แต่หาคนที่เชี่ยวขาญจริงน้อยมาก” ตอนนั้นไม่ได้สนใจอะไรมาก ไม่รู้ด้วยซ้ำว่าบิ๊กดาต้าคืออะไร แต่ปัจจุบันดันกลายเป็นเรื่องที่ “ใคร ๆ ก็พูดถึง” กันไปแล้ว

ปัญหาอยู่ที่ “ใคร ๆ ก็พูดถึง” นี่แหละ คือพอพูดกันมากเข้าก็ชักไม่แน่ใจว่าตกลงแล้วบิ๊กดาต้าคืออะไรกันแน่? ก็เลยลงทุนไปนั่งฟังการบรรยายเกี่ยวกับบิ๊กดาต้า ทั้งที่ปรกติไม่ค่อยชอบเสียเวลาไปกับเรื่องวิชาการที่มีประโยชน์เท่าไหร่ แต่ได้ยินมากว่าท่านผู้บรรยายมีชื่อเสียงมากเกี่ยวกับเรื่องบิ๊กดาต้าก็เลยคิดว่าน่าจะลองดูเสียหน่อย

Big Data
ฺhoto by Markus Spiske on Pexels.com

สิ่งที่จะเขียนต่อไปนี้ เรียบเรียงจากที่ได้ฟังมาการอบรมแห่งหนึ่ง ขอสงวนชื่อไม่บอกละกันว่าใครเป็นวิทยากรผู้บรรยาย เกิดจำผิดพลาดเอามาเขียนผิดจะทำให้ท่านเสียชื่อเสียงเอาเปล่า ๆ ถ้าผิดพลาดประการใด ก็ขอให้ถือว่าข้าพเจ้าเข้าใจสับสนคลาดเคลื่อนเองไม่เกี่ยวกับผู้บรรยาย เพราะการฟังเรื่องวิชาการแบบนี้มันชวนให้นอนหลับฝันดีมาก บางช่วงเลยไม่มีสมาธิกับความรู้เหล่านั้นเท่าไหร่

หมายเหตุ การบรรยายครั้งนี้มุ่งไปในด้านการจัดการ หรือ management ไม่ใช่ในเรื่องทางเทคนิคหรือวิธีการจัดทำบิ๊กดาต้า แต่ท่านผู้บรรยายใช้ศัพท์เฉพาะมากเหลือเกิน พอไม่มีความรู้พื้นฐานมาก่อนออกจะตามที่ท่านบรรยายไม่ทันเหมือนกัน

Big Data คืออะไร

บิ๊กดาต้าหรือ บิ๊กเดต้า ตามแต่สำเนียงการออกเสียงของแต่ละท่าน มันคืออะไร แบบไหนถึงเรียกว่าบิ๊ก เขาอธิบายง่าย ๆ ว่าเป็นข้อมูลที่มีปริมาณมหาศาลจนไม่สามารถเก็บหรือประมวลผลในรูปแบบวิธีการเดิม (Volume) ข้อมูลมีการเปลี่ยนแปลงอยู่ตลอดเวลา (Velocity) และ ข้อมูลมีความหลากหลาย (Variety)

(ข้อมูลทั่วไปอ่านเพิ่มเติมจากวิกิพีเดียก็ได้ จะได้ไม่เปลืองเนื้อที่)

แล้วที่ว่าปริมาณมหาศาลนั้น มันต้องแค่ไหนถึงจัดเป็นมหาศาล (34 ล้านข้อมูลพอใช้ได้มั้ย?) ความจริงถ้าเกินล้านก็ถือว่าใหญ่แล้ว แต่ ต้องจำไว้ว่ามันต้องเป็น Transactional Data ไม่ใช่ summary data แล้วเขาก็พูดราวกับกระแนะกระแหนหน่วยงานราชการทำนองว่า ใช้บิ๊กดาต้าในการบริหารและตัดสินใจ แต่ข้อมูลที่คิดว่ามีในมือนั้นเป็นข้อมูลแบบไหน และมีนักวิเคราะห์ข้อมูล “ที่เชื่อถือได้” อยู่กี่คน ผู้บริหารที่บอกว่า “ใช้บิ๊กดาต้าในการบริหารและตัดสินใจ” หลายคนยังไม่รู้เลยว่า Transactional Data กับ summary data หรือ Data Lake กับ Data Warehouse ต่างกันอย่างไร

[อ้าว… คนนั่งฟังหนึ่งคนก็ทำตาแป๋ว ๆ เพราะไม่รู้เหมือนกัน แต่วางฟอร์มทำหน้าเหมือนรู้เรื่องเนียน ๆ ไป ตามประสาแกะตาดำ ๆ]

“บิ๊กดาต้าก็เหมือนเซ็กซ์ ทุกคนพูดถึงมันราวกับเป็นผู้เชี่ยวชาญ แต่หาคนที่เชี่ยวขาญจริงน้อยมาก”

มิตรสหายท่านหนึ่ง

เรื่องที่ต้องทำความเข้าใจเป็นอันดับแรกคือ จุดเด่นของบิ๊กดาต้าคือการเปลี่ยนแนวคิดการทำระบบ database ก่อนหน้านั้นไปเลย เพราะระบบการจัดการ database อย่างเดิมไม่สามารถจัดการกับบิ๊กดาต้าได้อย่างมีประสิทธิภาพ การจัดการกับข้อมูลตั้งแต่ต้นทางไปสู่ปลายทาง และอาจจะต้องทำซ้ำ กลับไปกลับมา หรือมีความสับสนของข้อมูล

ดังนั้น ถ้าถามว่า Big Data คืออะไร ? ตอบแบบกำปั้นทุบดิน คือข้อมูลขนาดใหญ่ แต่มันต้องใหญ่ขนาดไหนถึงจะเรียกว่าบิ๊กดาต้า เอาง่าย ๆ ถ้าข้อมูลที่มีสามารถเก็บไว้ในเซิร์ฟเวอร์แห่งเดียวด้วยฮาร์ดดิสต์แค่ลูกสองลูก มันไม่มีศักยภาพพอจะเป็นบิ๊กดาต้า

สาม V คือ Volume, Velocity และ Variety สามคำนี้คือนิยามของ Big Data

Volume ข้อมูลนั้นมันต้องมีขนาดใหญ่มากกกกกกกกกกกกกกกกกกกกกกก (นี่อยากจะกด ก ย้ำสักหลายสิบล้านครั้ง) ใหญ่ขนาดไหน? มันต้องใหญ่ขนาดที่ต้องใช้คลังข้อมูล (Data Warehouse) และซอฟต์แวร์ฮาดูป (Hadoop) ทำงานประสานกันในการบริหารจัดการข้อมูล

Velocity ข้อมูลต้องเพิ่มขึ้นรวดเร็วตลอดเวลา นึกถึงข้อความในสเตตัสของเฟซบุ๊ก การพิมพ์แชตในไลน์ ของคนทั้งโลกพร้อมกัน

Variety รูปแบบข้อมูลหลากหลาย ไม่อาจจัดกลุ่มเป็นข้อมูลรูปแบบใดรูปแบบหนึ่งได้เฉพาะ

จากสามข้อด้านบน มันก็จะต้องมี Big Data Ecosystem นั่นคือ Storage

ข้อมูลมีปริมาณมากและไม่มีรูปแบบที่ชัดเจน (Volume และ Variety) ไม่สามารถกำหนดได้เหมือนกับ RDBMS จึงต้องอาศัย Hadoop

สำหรับคนที่ไม่รู้จัก Hadoop อันนี้เป็นโครงการคำสั่งประมวลผลแบบรหัสเปิดพัฒนาโดย Apache Software Foundation สำหรับจัดเก็บข้อมูลขนาดใหญ่มากรองรับจะสร้างคอลัมน์สักพันล้านคอลัมน์ก็ได้ ถือเป็นเทคโนโลยีหลักที่อยู่เบื้องหลัง Big Data และยังมี Hadoop Ecosystem อีกจำนวนหนึ่งช่วยเสริมในเรื่องการจัดการ การเข้าถึงและดึงข้อมูล รวมทั้งการติดต่อแลกเปลี่ยนข้อมูลกับระบบต่าง ๆ ให้สะดวกขึ้น โดยมี Hadoop เป็นแกนกลางในการทำงาน

ปัจจุบันมีการพัฒนาต่อยอดเป็น Cloudera เป็นคำสั่งประมวลผลรหัสเปิด (หรือ Open Source Software) ที่มีการรวมรวบแพลตฟอร์มสำหรับการจัดเก็บข้อมูลขนาดใหญ่ไว้ครบถ้วน และสามารถพัฒนาได้ร่วมกับทุกแพลตฟอร์ม

 ถ้าจะให้อธิบายการทำงานแบบคร่าว ๆ ก็คือ

  • Distributed data ข้อมูลจะกระจายไปทำงานหลาย ๆ เครื่อง หรือ node
  • Cluster computing กระบวนการทำงานของแต่ละ node จะอยู่ภายใต้ cluster ซึ่งเป็น software ที่เชื่อมแต่ละ node เข้าด้วยกัน เหมือนกับว่าทำงานอยู่ในเครื่อง หรือ ระบบเดียวกัน
  • Massive parallel processing ระบบการประมวลผลภายใน cluster สามารถทำงานแบบขนานกันได้ ซึ่งช่วยให้การทำงานเร็วขึ้น

Data Processing

ถ้าข้อมูลมีปริมาณมาก เกิดขึ้นเพิ่มจำนวนอย่างรวดเร็ว และหลากหลาย การประมวลผลก็ต้องใช้วิธีแตกต่างออกไป จะใช้ Batch ก็ใช้เวลานาน หรือ Streaming ประมวลผลแบบ realtime หรือว่าจะเป็น Apache Spark

Data Analytic

การวิเคราะห์ นั่นคือกระบวนการวิธีสำหรับเข้าถึงข้อมูลเชิงลึกจาก Storage และ Processing แต่ ข้อมูลระดับ Big Data จะเอามาวิเคราะห์ได้อย่างไรในเมื่อมันยุ่งเหยิงไร้ระเบียบ

ง่าย ๆ ก็ต้องแปลงข้อมูลให้มีรูปแบบก่อน ซึ่งมีหลายวิธี

  • Data mining
  • Predictive analytic
  • Text analytic
  • Video analytic
  • Social media analytic
  • Sentiment analytic
  • Location analytic
  • Machine learning

สรุปง่าย ๆ คือข้อมูลที่มีอยู่จะต้องเป็นข้อมูลที่เอามาใช้ได้ บางหน่วยงาน คิดว่าตัวเองมีข้อมูลมาก แต่ลืมมองอีกด้านว่าข้อมูลนั้นไม่ได้มีความเคลื่อนไหว หรือมีความเคลื่อนไหวเปลี่ยนแปลงน้อย แบบนั้นก็ไม่เหมาะกับบิ๊กดาต้า เพราะข้อมูลที่เอามาใช้ควรเป็นข้อมูลที่แสดงความเคลื่อนไหวเปลี่ยนแปลง ไม่ใช่เก็บเป็นรูปภาพหรือไฟล์ pdf หรือเก็บเป็น summary data ก็เอามาวิเคราะห์ข้อมูลยาก อย่างเช่น มียอดขายเพิ่มขึ้น 20% แล้ว 20% นั่นเพิ่มขึ้นเพราะอะไร? แต่ถ้าเรามี transection data ที่มีรายละเอียดมาก ก็จะนำข้อมูลเหล่านั้นมาวิเคราะห์ได้

Big Data ในชีวิตจริง

ยกตัวอย่างเช่นห้างสรรพสินค้าแห่งหนึ่งทำบัตรสมาชิก ข้อมูลในบัตรมันไม่ได้มีแค่ชื่อ นามสกุล หมายเลชสมาชิก จำนวนแต้มสะสมในบัตร เพศ หรือ ช่วงอายุ เพราะทุกครั้งที่ลูกค้าใช้บัตร มันจะบันทึก วัน เวลา ที่ใช้บัตร (ใช้ดูความถี่การซื้อสินค้าและช่วงเวลาที่เข้ามาซื้อสินค้า) สาขาที่ไปซื้อของ จำนวนเงินต่อครั้งที่จ่าย ประเภทของสินค้าที่จ่าย

ข้อมูลเหล่านี้คือข้อเท็จจริง ลดความเสี่ยงต่อการบิดเบือนข้อมูลน้อยกว่า แต่ก็อาจจะบิดเบือนได้จากการที่ให้ลูกหรือเพื่อนเอาบัตรไปใช้เพื่อสะสมแต้ม (อย่างหลาย ๆ แห่งใช้แค่แค่บอกเบอร์โทรศัพท์) แต่ถ้าวิเคราะห์ข้อมูลก็อาจจะเห็นความแตกต่างจากพฤติกรรมที่เกิดขึ้น เช่นถ้าบัตรหนึ่งใบมีบันทึกข้อมูลการใช้งานแถวชิดลม และในเวลาไล่เลี่ยกันไปใช้งานแถวพุทธมณฑล มันก็บอกอยู่ว่าไม่ใช่คนเดียวกัน

งานหนักที่ต้องทำคือการค้นหาความหมายของข้อมูลที่เก็บมา เพราะข้อมูลพวกนี้ไม่ได้มีการเชื่อมโยงกันชัดเจน สิ่งที่ต้องทำคือ “การถามคำถามที่ถูกต้อง” แล้วจึงใช้เวลาในการค้นหาคำตอบซึ่งอาจเป็นขั้นตอนที่ต้องทำซ้ำไปซ้ำมา เมื่อตอบคำถามหนึ่งข้อจะทำให้คำถามเพิ่มขึ้น กว่าจะค้นพบความหมายและโอกาสที่ซ่อนอยู่ภายในข้อมูล

ข้อมูลแบบนี้มีประโยชน์ เมื่อ “ถามคำถามถูกต้อง” อย่างเช่นห้างสรรพสินค้าวอลมาร์ตใช้การวิเคราะห์ข้อมูลจนได้ข้อมูลบ่งชี้น่าสนใจว่ามีผู้ชายกลุ่มหนึ่งมาซื้อเบียร์และผ้าอ้อมเด็กทุกวันศุกร์มากเป็นพิเศษ ทางวอลมาร์ตเลยเอาเบียร์มาวางใกล้ ๆ ผ้าอ้อมเด็ก เป็นการอำนวยความสะดวกให้ลูกค้าหยิบเห็นสินค้าได้ง่ายและหยิบง่ายขึ้น นึ่คือการศึกษาพฤติกรรมลูกค้าผ่านทางข้อมูล ซึ่งกว่าจะได้แนวทางการจัดวางสินค้าแบบนี้ก็ต้องมีข้อมูลและ “การถามคำถามที่ถูกต้อง”

หรืออย่างเป๊ปซี่ได้สร้างวัฒนธรรมองค์กรเกี่ยวกับการใช้ข้อมูลเพื่อวัดประสิทธิภาพ ผู้บริหารระดับสูงได้จัดทำดัชนีชี้วัดผลการดำเนินงาน (KPIs) ไว้อย่างชัดเจน ซึ่งรายงานไปทั่วทั้งองค์กร โดยคาดหวังว่าจะได้รู้จัก 3 สิ่งคือ รู้จักลูกค้า รู้จักคนทำงาน และรู้จักปริมาณ

บริษัทเปปซี กับ โค้ก (Coke) ในเรื่องการใช้ข้อมูลลูกค้า ซึ่งเดิมทีเปปซีลาตินอเมริกามีจุดอ่อนที่เวลาส่งสินค้าไปแล้วรู้ว่าสินค้าที่ขายคืออะไร ปริมาณเท่าไหร่ แต่ไม่มีข้อมูลลูกค้าที่ซื้อสินค้าไปเลย ในขณะที่โค้กเก็บข้อมูลลูกค้าอย่างละเอียดทำให้สร้างโฆษณาและโปรโมชันที่เหมาะสมกับกลุ่มเป้าหมายได้ดีกว่า

ต่อมาเปปซีจึงขยับตัว พวกเขาตั้งกลุ่มงานวิจัยข้อมูลขึ้นมา เก็บข้อมูลลูกค้าโดยละเอียด ตัวอย่างที่เก็บก็เช่น ภัตตาคาร ร้านอาหาร ร้านสะดวกซื้อ ตู้กดสินค้า ฯลฯ เก็บข้อมูลประเภทสินค้า จำนวน ราคา แรงจูงใจในการซื้อ ฯลฯ คือเก็บข้อมูลมากมายทั้งที่ดูจะเกี่ยวข้องและไม่เกี่ยวข้องในการจำหน่ายสินค้าภายใต้ชื่อเปปซี อันนี้คือการเก็บบิ๊กดาต้า ลงลึกไปถึงระดับสินค้าถึงมือผู้บริโภค ผสมกับข้อมูลการขนส่ง การผลิต การขายส่ง การกระจายสินค้า เหล่านี้ทำให้การวางเป้าหมายในการโฆษณาหรือออกสื่อสัมพันธ์กับผู้บริโภคตรงจุดมากขึ้น ใกล้ชิดกับลูกค้ามากขึ้น

บิ๊กดาต้าเอาไปใช้งานได้หลากหลายมาก เพราะข้อมูลมีอยู่ทั่วไป อย่างเช่น Internet of things หรือข้อมูลจาก Social Media รวมกับข้อมูลจากสมาร์ตโฟนก็แสดงให้เห็นถึงพฤติกรรมของผู้ใช้งานเช่นกัน อย่างเช่นประเทศเกาหลีใต้และออสเตรเลียใช้ข้อมูลเหล่านี้ประกอบการจัดการจราจร เช่นจุดจอดรถเมล์ และการจัดทำระบบขนส่งทางราง

Big Data ช่วยอะไรบ้าง?

บิ๊กดาต้าไม่ใช่เครื่องมือวิเศษที่ช่วยได้ทุกอย่าง ดังนั้นคนที่จะใช้ดาต้าในการช่วยประกอบการตัดสินใจหรือบริหารงาน ต้องประเมินเสียก่อนว่าข้อมูลที่มีในมือเป็นข้อมูลประเภทใด (หมายถึงเป็น raw data เป็น transection data เป็น summery data หรืออะไร) เราเป็นเจ้าของข้อมูลเหล่านั้นหรือไม่ หรือต้องใช้ข้อมูลจากที่อื่น (Internet of things หรือ social media หรือซื้อข้อมูลจากกูเกิล หรือ อื่น ๆ) และข้อมูลที่มีเหมาะสมจะใช้ทำ data lake หรือเป็นเพียงข้อมูลที่เก็บใน data warehouse ก็เพียงพอแล้ว

อันนี้คือคำถามสำคัญสำหรับผู้บริหาร เราต้องการบิ๊กดาต้าจริงหรือไม่ หรือเพียงแค่เรามี database ที่ใหญ่หน่อยเท่านั้น?

เพราะต้องจำไว้ว่าการลงทุนทำบิ๊กดาต้า ต้องใช้ทั้งทุนในการสร้างอุปกรณ์และทุนในการสร้างคน

อย่างเช่นเรื่องของเก็บอุปกรณ์เก็บข้อมูลเป็น Data Lake จะเก็บ Raw data ไม่ว่าจะเป็นข้อมูล Structure, unstructured หรือ semi-structure โดยข้อมูลที่เก็บจะยังไม่ต้องคำนึงถึงโครงสร้างหรือนิยามการใช้งานในตอนต้น ดังนั้นถ้าอยากจะเก็บอะไร เช่น ปริมาณไส้เดือนต่อ 1 ลูกบาศก์เมตร ก็เก็บไปเถอะ แต่ข้อมูลนั้นควรจะเป็น transection data หรือข้อมูลที่มีการเคลื่อนไหว ไม่ใช่ ข้อมูลที่วิเคราะห์ไปหมดแล้วเหลือแต่ summery data หรือข้อมูลที่เป็นรูปภาพหรือ pdf

แต่ข้อมูลที่เป็น unstructured data นี่เป็นจุดเด่นของการจัดเก็บข้อมูลบิ๊กดาต้า เพราะเวลาเราทำดาต้าเบสในระบบความคิดเดิม เราจะคุ้นเคยกับการวางแผนและจัดระเบียบข้อมูลเพื่อนำมาใช้ แต่ บิ๊กตาต้าสามารถเก็บข้อมูล ประเภท unstructured data ได้ด้วย

คือข้อมูลที่ไม่ได้ทำการจัดระเบียบและวางแผนมาก่อน ซึ่งเป็นปัญหาทำให้นำข้อมูลไปใช้ลำบาก ยิ่งเมื่อเวลาผ่านไปจำนวนข้อมูลจะยิ่งมากขึ้น โดยเฉพาะ Unstructured Data ที่ไม่มีการจัดการ Data Management Platform (DMP) เพื่อทำให้ข้อมูลเป็นแพลตฟอร์มเดียวกัน จะมีปัญหาในการนำไปใช้งานร่วมกับข้อมูลที่มีอยู่เดิม

ปัญหาสำคัญอย่างแรกที่ต้องพบในการจัดทำบิ๊กดาต้าคือ Analytics Model คือการคัดเลือกหรือเตรียมข้อมูล เพื่อใช้กับโมเดล ทั้ง Data Repository Data Governance Data Ingestion และ Data Preparation

การลงทุนในเรื่องบิ๊กดาต้า เพื่อทำ Big Data Platform นั้นต้องลงทุนสูง คำถามคือเราต้องลงทุนโครงสร้างพื้นฐานจำนวนหลายสิบล้านหรือเป็นร้อยล้านบาทเพื่อใช้เป็นคลังเก็บข้อมูลจะคุ้มค่าหรือไม่ การพิจารณาเรื่องความคุ้มค่ากับการลงทุนเป็นเรื่องที่ผู้บริหารจะต้องตัดสินใจ แต่เรื่องนี้อาจลดต้นทุนได้ด้วยการใช้ cloud storage แต่ก็ต้องคำนึงถึงความปลอดภัยของข้อมูลด้วย โดยเฉพาะข้อมูลบางอย่างที่เซนซิทีฟว่าจะเป็นการละเมิดข้อมูลส่วนบุคคล อาจจะต้องเข้ารหัสไว้ก่อนนำข้อมูลเข้า

ที่สำคัญคือเรื่องของคน ขณะที่ Data warehouse อาจทำแค่ Data Cleansing ซึ่งจะเน้นการใช้ SQL ซึ่งผ่าน data it จัดการ แต่การวิเคราะห์ข้อมูล Big Data ต้องใช้หลายฝ่ายมากกว่านั้น เช่น data scientist ที่สามารถพัฒนาโปรแกรมได้ ไม่ใช่แค่ใช้ SQL ต้องหาคนที่ใช้ “ภาษา” โปรแกรมเป็น อาจจะเป็นภาษา Python และมีความรู้ด้าน Machine Learning หรือสร้าง Algorithm เพื่อทำ Big Data Analytics

ซึ่งการลงทุนกับเรื่องของคน ทั้งพัฒนาเองและจ้าง outsource ก็ต้องใช้เงินไม่ใช่น้อย ที่สำคัญคือ แม้แต่ฝ่ายที่ไม่เกี่ยวกับเรื่องของ IT หรือ DATA ก็ต้องรับรู้และปรับตัวช่วยในเรื่องนี้ด้วย องค์กรต่าง ๆ เช่น พร็อกเตอร์แอนด์แกมเบิล มอบหมายให้นักวิเคราะห์ข้อมูลที่ฝังตัวไปยังหน่วยธุรกิจเพื่อช่วยให้ทีมงานธุรกิจทำแบบวิเคราะห์นี้ เพราะเรื่องของ “การถามคำถามที่ถูกต้อง” เป็นเรื่องที่ฝ่าย Data IT จัดการเองไม่ได้ การได้มาและการใช้ข้อมูล และ แนวทาง “การถามคำถามที่ถูกต้อง” เป็นเรื่องที่ทุกฝ่ายในบริษัทจะต้องเข้ามาเกี่ยวข้องด้วยตั้งแต่ต้น

เพราะถ้าเป็นเมื่อก่อน ฝ่ายการตลาด หรือ ฝ่ายโฆษณา อาจแค่เพียงส่งคำขอที่ต้องการไปหาฝ่าย IT เพื่อขอข้อมูลที่เป็น Summery หรือข้อมูลสรุป เพื่อช่วยในการตัดสินใจ แต่สำหรับบิ๊กดาต้าจะต้องพัฒนาขึ้นมาในองค์กรเพื่อให้ผู้ใช้ปลายทางได้รับข้อมูลที่ต้องการได้ด้วยตัวเอง นั่นหมายถึงการเพิ่มพนักงานหรือฝึกพนักงานปัจจุบันเพื่อให้ฝ่ายต่าง ๆ สามารถใช้งานฮาร์ดแวร์และซอฟต์แวร์ที่จำเป็นสำหรับการจัดการบิ๊กดาต้าได้เร็วขึ้น

ก่อนจบ

สิ่งที่จะเขียนต่อไปนี้ไม่เกี่ยวกับทีไปสัมมนาอบรมแล้ว แต่เห็นมีคนพูดถึงกันพอสมควรเมื่อ BURGER KING® ลองใช้ Machine Learning และ Artificial intelligence สร้างแคมเปญโฆษณาขึ้นมาด้วยใช้ข้อมูลบิ๊กดาต้าของบริษัท โครงการนี้ใช้ชื่อ AOR

ความน่าสนใจตรงที่เบอร์เกอร์คิงจะสร้างอัลกอริธึมให้ A.I. ฉลาดได้ขนาดไหนในการสร้างโฆษณาขึ้นมา ซึ่งน่าจะเป็นครั้งแรกของโลกที่ให้ A.I. เรียนรู้รูปแบบครีเอทีฟโฆษณา โดยใช้บิ๊กดาต้าเป็นตัวเสริม เป็นหนึ่งในการเรียนรู้ระบบวิธีการคิดแบบมนุษย์ โดยมีการสร้างโฆษณามากกว่า 100 ชิ้น เพื่อทดสอบกับโฟกัสกรุ๊ป ส่วนสคริปต์สุดท้ายจะออกอากาศทางสถานีโทรทัศน์วันที่ 1 ตุลาคมนี้

ดูท่า อนาคตอันใกล้คนจะตกงานกันเยอะเพราะโดนเครื่องจักรแย่งงาน

ชมโฆษณากันให้เต็มอิ่ม

Big Data – บิ๊กเดต้า หรือ บิ๊กดาต้า แล้วแต่จะเรียก มันเป็นคำที่ควรจะผ่านไปพร้อมกับปี ๒๕๖๐ ไม่ได้บอกว่ามันล้าสมัยเพราะยังไงก็ยังต้องเกี่ยวข้องกับมันอยู่ แต่รู้สึกว่ามันเป็นคำสามัญที่ไม่น่าจะมีใครใช้มันผิดความหมายอีกแล้ว แต่ก็ยังมีคนเข้าใจคลาดเคลื่อนอยู่บ้างเหมือนกัน

ช่วงสามหรือสี่ปีที่ผ่านมา บิ๊กดาต้า เปลี่ยนจากคำในวงการเทคโนโลยี เป็นคำทางการตลาด มันเหมือนค่านิยมที่ต้องพูดถึงทั้งที่ไม่รู้ว่าดาต้าคืออะไร บิ๊กดาต้าคืออะไร กลายเป็นคำเท่ที่ต้องหัดใช้ให้คล่องปากไม่งั้นตกกระแส

ตอนนี้ก็น่าจะหมดกระแสไปแล้วล่ะ กลายเป็น Blackchain แทนแล้ว

ความคิดเห็นของคุณ :)

%d bloggers like this: