ThaiPublica > คอลัมน์ > เศรษฐศาสตร์ในยุค Big Data

เศรษฐศาสตร์ในยุค Big Data

28 พฤษภาคม 2016


ณภัทร จาตุศรีพิทักษ์

ทีมาภาพ : http://www.settakid.com/bigdataecon/
ทีมาภาพ : http://www.settakid.com/bigdataecon/

ผมคิดว่ามันน่าทึ่งมากที่ขณะนี้เรากำลังใช้ชีวิตอยู่ในยุคที่อีกไม่นานสมองกลจะสามารถมองเห็นภัยในระบบการเงินโลกอันแสนจะยุ่งเหยิงได้ก่อนมนุษย์และสามารถรู้สึกถึงความเปลี่ยนแปลงของตัวแปรเศรษฐกิจในระยะสั้นได้ดีกว่าเรา

แต่ที่น่าทึ่งยิ่งกว่า คือมันเป็นยุคเดียวกันกับช่วงเวลาที่นักเศรษฐศาสตร์จำนวนมาก (ซึ่งเป็นกลุ่มคนที่น่าจะทราบดีกว่าใครเพื่อน!) ยังเห็นไม่ตรงกันว่าโลกเราจะเป็นอย่างไรภายใต้ภาวะดอกเบี้ยติดลบ และยังตกลงกันไม่ได้ว่าธนาคารกลางสหรัฐฯ ควรจะขึ้นดอกเบี้ยเมื่อไร

…และต้องไม่ลืมว่า นี่ก็เป็นยุคเดียวกันกับยุคที่นักเศรษฐศาสตร์ชั้นนำหลายคนมองไม่เห็นสัญญาณก่อนเกิดวิกฤติแฮมเบอร์เกอร์

หลายคนจึงอดสงสัยไม่ได้ว่า ท่ามกลางกระแส Big Data ที่มาพร้อมกับความร้อนแรงของสาขา Machine Learning และสาขาอื่นๆ ภายใต้ศาสตร์แห่งวิทยาศาสตร์ข้อมูล (Data Science) บทบาทและคุณค่าของนักเศรษฐศาสตร์ในยุคนี้คืออะไรกันแน่ และมันจะเปลี่ยนแปลงไปในรูปแบบใด

ผมเองมองว่ากระแส Big Data ถือเป็นการเปลี่ยนแปลงที่ดี เพราะว่าถึงเวลาแล้วที่ทฤษฎีเศรษฐศาสตร์หลายๆ ทฤษฎีควรถูกจับมาพิสูจน์ด้วยข้อมูลที่เราไม่เคยมีมาก่อน ในอนาคตเราจะได้เข้าใจพฤติกรรมมนุษย์ในระบบเศรษฐกิจที่นับวันยิ่งทวีความซับซ้อนมากยิ่งขึ้น

แต่ที่ผมคิดว่าน่าสนใจที่สุด คือ ช่องทางที่นักเศรษฐศาสตร์รุ่นใหม่ๆ นั้นได้เริ่มปรับตัวเข้ากับกระแส Big Data นี้อย่างช้าๆ ไปเรียบร้อยแล้ว อีกทั้งยังได้เริ่มเบิกทางให้เราเห็นแล้วว่า อีกในไม่กี่ปีข้างหน้าสาขาเศรษฐศาสตร์จะต่อยอด Big Data อย่างไร และให้อะไรได้บ้างกับวงการธุรกิจและสังคมโดยรวม

โดยหลักๆ แล้วผมมองว่านักเศรษฐศาสตร์จะสามารถเข้ามาช่วยสร้าง value ในยุค Big Data นี้ได้ใน 2 ช่องทางหลักๆ :

1. สร้างและใช้มาตรวัดตัวแปรเศรษฐกิจใหม่ๆ ที่มีประสิทธิภาพสูงกว่า มีความแม่นยำสูงกว่า และมีต้นทุนในการเก็บข้อมูลที่ต่ำกว่าวิธีเดิมๆ
2. ช่วยทีม Business Analytics ไปให้ไกลกว่าการคาดคะเนหรือจำลองอนาคต (predictive modeling) เพื่อไปสู่ความเข้าใจถึงความเป็นเหตุเป็นผลซึ่งกันและกัน (causation)

บทความนี้จะพาท่านผู้อ่านไปสำรวจดูว่าล่าสุดนี้มีการประยุกต์ใช้ทฤษฎีเศรษฐศาสตร์ร่วมกับกระแส Big Data ใน 2 ช่องทางนี้อย่างไรบ้างครับ

1. สร้างและใช้ข้อมูลตัวแปรเศรษฐกิจใหม่ๆ ด้วย Big Data

เมิ่อ 30 ปี ก่อนหากคุณต้องการทราบว่าในเมืองหนึ่งมีประชากรมากน้อยแค่ไหนที่ตกงาน ประชาชนมีรายได้แค่ไหนในแต่ละเขต วันนี้ระดับเงินเฟ้อเป็นอย่างไร บริเวณใดบ้างของเมืองที่ไม่ค่อยปลอดภัย หากจะตอบคำถามทั้งหมดนี้ได้ คุณจะต้องลงมือสร้างแบบสอบถามไม่รู้กี่ชุด ฝึกพนักงานจำนวนมากเพื่อไปลงพื้นที่ และต้องลงทุนมากมายไปกับกับการเข้าไปเก็บข้อมูลเหล่านี้

ตัวอย่างที่ผมคัดมาต่อไปนี้แสดงให้เห็นว่าวันนี้โลกเรากำลังเปลี่ยนไปมากจริงๆ ครับ

ที่มาภาพ :  https://img.washingtonpost.com/wp-apps/imrs.php?src=https://img.washingtonpost.com/blogs/wonkblog/files/2014/04/jobless-claims.jpg&w=1484
ที่มาภาพ : https://img.washingtonpost.com/wp-apps/imrs.php?src=https://img.washingtonpost.com/blogs/wonkblog/files/2014/04/jobless-claims.jpg&w=1484

ตัวอย่างประเภท 1: วัดตลาดแรงงานใหม่ – ทีมวิจัยแห่งมหาวิทยาลัยมิชิแกน ได้สร้างระบบประมวลข้อมูล Twitter อันมหาศาลที่สามารถทำนายอัตราการว่างงานได้ดีเสียยิ่งกว่าข้อมูล Initial Claims ของภาครัฐเสียอีก โดยงานวิจัยชิ้นนี้ทำการ “ขุด” ข้อมูล text เพื่อหาคำพูดต่างๆ ที่เกี่ยวข้องกับการว่างงานแล้วเอามาจัดใหม่เป็นดัชนีว่างงานด้านบน

ที่มาภาพ : http://www.indeed.com/jobtrends/industry
ที่มาภาพ : http://www.indeed.com/jobtrends/industry

จุดแข็งอีกจุดหนึ่งของข้อมูล Big Data ที่มาจากเว็บไซต์หางาน เช่น LinkedIn หรือ Indeed.com เหล่านี้คือมีความถี่และความละเอียดมากกว่าข้อมูลชุดเดิมๆ ถึงขั้นที่ว่าในอนาคตเราจะมีดัชนีมากมายที่ช่วยให้ทราบได้ถึงภาวะของตลาดแรงงาน จากกราฟด้านบนจะเห็นได้ถึงพลังของ ข้อมูลจาก Indeed.com ที่ทำให้เราเห็นถึงเทรนด์ในตลาดแรงงานสหรัฐฯ อย่างละเอียดและว่องไว

ที่มาภาพ : http://web.stanford.edu/~leinav/pubs/Science2014.pdf
ที่มาภาพ : http://web.stanford.edu/~leinav/pubs/Science2014.pdf

ตัวอย่างประเภท 2: วัดอัตราเงินเฟ้อใหม่ – กราฟด้านบนเป็นผลงานของ The Billion Prices Project แห่งมหาวิทยาลัย MIT ที่ได้ทำการร่วมมือกับธุรกิจยักษ์ใหญ่หลายร้อยราย ตกลงกันที่จะทำการสูบข้อมูลราคาสินค้าออนไลน์นับล้านรายการทุกวัน เพื่อเอาข้อมูลราคาเหล่านี้มาสังเคราะห์สร้างดัชนีสินค้าออนไลน์ขึ้นมาเทียบกับดัชนีราคาผู้บริโภค (CPI) ในแต่ละประเทศ นอกจากดัชนีสินค้าออนไลน์แบบนี้จะสามารถเปลี่ยนแปลงได้รายวันแล้วยังเป็นดัชนีราคาที่มีคุณค่ามากเวลา CPI ของภาครัฐเชื่อถือไม่ค่อยได้ ไม่มี หรือไม่ถี่พออย่างในกรณีของประเทศอาร์เจนตินา (กราฟขวาด้านบน)

ที่มาภาพ : http://pulse.media.mit.edu/
ที่มาภาพ : http://pulse.media.mit.edu/

ตัวอย่างประเภท 3: วัดรายได้และกิจกรรมทางเศรษฐกิจใหม่ – อีกตัวอย่างประเภทหนึ่งที่ทำให้ผมรู้สึกเหมือนว่าเรากำลังอยู่ในโลก sci-fi คือการใช้ข้อมูลภาพถ่ายจาก Google Street View เพื่อทำนายรายได้ของประชากรที่อยู่อาศัยในละแวกนั้น งานวิจัยใหม่ของ Glaeser et al. (2015)พบว่าสามารถเอาข้อมูลภาพถ่ายจากรถ Google เหล่านี้ไปผนวกกับข้อมูลรายได้จริงของประชากรจากแบบสอบถาม American Community Survey เพื่อสอนให้คอมพิวเตอร์เรียนรู้ถึงความสัมพันธ์ระหว่าง pixel แต่ละประเภท (ต้นไม้ ท้องฟ้า รถยนต์ ฯลฯ) กับรายได้ในแต่ละบริเวณ หลังจากนั้นก็ฝึกให้คอมพิวเตอร์เรียนรู้จากภาพถ่ายทีละเซ็ต เมื่อเรียนรู้เสร็จก็นำไปใช้ทำนายรายได้จากภาพถ่ายนอกเซ็ตได้ในที่สุด น่าทึ่งที่วิธีเหล่านี้สามารถเอาคอมพิวเตอร์ที่เรียนแต่กับภาพถ่ายของนครนิวยอร์กไปทำนายรายได้ในเมืองบอสตัน (out-of-sample) ได้อย่างค่อนข้างแม่นยำเลยทีเดียว โดยงานวิจัยนี้เป็นการต่อยอดทางความคิดจากโปรเจกต์ Street Score ซึ่งเป็นผลงานของทีมนักวิจัยแห่งมหาวิทยาลัย MIT ที่ใช้ machine learning เพื่อ “ฝึก” ให้คอมพิวเตอร์สามารถบอกได้ว่าภาพจาก Google Street View ของแต่ละย่านดูปลอดภัยมากน้อยแค่ไหนในสายตามนุษย์จากการ “ป้อน” ข้อมูลอันดับความปลอดภัยที่มาจากเรทติ้งของมนุษย์จริงๆ ที่เก็บโดย Place Pulse (ภาพด้านบน ลองเข้าไปเล่นดูได้ครับ)

ที่มาภาพ : http://arxiv.org/pdf/1510.00098.pdf
ที่มาภาพ : http://arxiv.org/pdf/1510.00098.pdf

ตัวอย่าง Google Street View ดังกล่าวคือตัวอย่างจากประเทศและชุมชนที่ “เจริญแล้ว” แต่ในยุค Big Data นั้นที่ที่ไม่เจริญที่ไม่มีแม้แต่ถนนให้รถของ Google วิ่ง ก็ยังได้รับความสนใจจากนักเศรษฐศาสตร์เป็นอย่างมาก ยกตัวอย่างเช่น การใช้ machine learning กับภาพถ่ายจากดาวเทียมหาว่าคนจนอยู่ที่ไหน (ด้านบน) โดยทำการคาดการณ์หรือทำนายความน่าจะเป็นของความยากจนจากข้อมูลภาพถ่ายจากดาวเทียมตอนกลางวันและตอนกลางคืนในช่วงเวลาหนึ่ง พูดง่ายๆ คือให้คอมพิวเตอร์เทียบและหาความเกี่ยวโยงระหว่างความเปลี่ยนแปลงในภาพถ่ายตอนกลางวันกับภาพถ่ายตอนกลางคืนที่มีแสงไฟฟ้าเป็นตัววัดความเจริญ จากนั้นก็เทียบว่าโมเดลที่คอมพิวเตอร์คิดออกมาได้นั้นมันเทียบกับข้อมูลที่ใช้มนุษย์ไปสอบถามความยากจนตามบ้านเรือนแค่ไหน ปรากฏว่าค่อนข้างแม่นยำมาก

อีกหนึ่งงานวิจัยของ Xavier Sala-i-Martin ใช้ภาพถ่ายจากดาวเทียมเพื่อเก็บข้อมูลแสงสว่างยามค่ำคืนเอาไปวัดกิจกรรมทางเศรษฐกิจ (economic activity) ในแต่ละประเทศเพื่อตอบคำถามว่าระหว่าง National Accounts กับแบบสอบถาม มาตราวัดชนิดไหนสามารถวัดระดับรายได้ได้แม่นยำมากกว่ากัน (สรุปว่า National Accounts แม่นยำกว่า) และยังพบด้วยว่าที่จริงแล้วอัตรายากจนไม่น่าสูงอย่างที่ธนาคารโลกคาดไว้

ที่มาภาพ : http://www.mit.edu/~tavneet/Marx_Stoker_Suri.pdf
ที่มาภาพ : http://www.mit.edu/~tavneet/Marx_Stoker_Suri.pdf

อีกงานวิจัยที่มีการใช้เทคนิคการใช้รูปถ่ายจากดาวเทียมคืองานวิจัยโดย Tavneet Suri (ด้านบน) ที่ศึกษาความสัมพันธ์ระหว่างอคติทางชาติพันธุ์กับตลาดอสังหาริมทรัพย์ในประเทศเคนยาจากการใช้รูปถ่ายของประเภทและคุณภาพของหลังคาบ้าน เทคนิคนี้ช่วยให้พบว่าค่าเช่าบ้านสูงขึ้นเวลาผู้นำกับเจ้าของบ้านเช่ามาจากเผ่าเดียวกัน

ที่มาภาพ :  https://spaceknow.com/the-iranian-oil-terminal-that-will-decide-2016-crude-prices/
ที่มาภาพ : https://spaceknow.com/the-iranian-oil-terminal-that-will-decide-2016-crude-prices/

อีกตัวอย่างที่ผมคิดว่าจะมีการใช้งานโดยนักเศรษฐศาสตร์นอกวงการวิชาการมากขึ้น คือการใช้งาน SpaceKnow ซึ่งเป็นบริษัทสตาร์ตอัพมาแรงที่สามารถทำให้เราประมวลข้อมูลจากภาพถ่ายดาวเทียมตามห้วงเวลาและสถานที่ที่กำหนดได้อย่างง่ายดาย ด้านบนคือภาพถ่ายบริเวณคลังผลิต crude oil ในเกาะ Kharg ประเทศอิหร่าน ซึ่งเราสามารถเอาเงาของแทงค์ไปประมวลคร่าวๆ ดูได้ว่ามี capacity เท่าไหร่ (ผู้อ่านท่านไหนสนใจลองเข้าไปใช้งานได้ฟรีครับ) ประโยชน์ของข้อมูลประเภทนี้คือมันเป็นวัตถุดิบในการสร้างดัชนี business activity ใหม่ๆ เพื่อเป็น “ตัวเลือก” ที่อาจทำให้นักลงทุนได้ข้อมูลตัวแปรเศรษฐกิจจุลภาคที่ดีกว่าคู่แข่ง โดยเฉพาะอย่างยิ่งในสภาวะที่หลายอาจจะคนรู้สึกว่าข้อมูลทางการของจีนอาจไม่บริสุทธิ์นัก SpaceKnow จึงได้รวมรูปถ่ายบริเวณโรงงานต่างๆ ในประเทศจีนเพื่อเอามาสร้าง China Satellite Manufacturing Index


ตัวอย่างสุดท้ายจากประเภทนี้ ด้านบนเป็น interactive map ใหม่ที่แสดงให้เห็นถึงพลังของ Big Data ที่นักเศรษฐศาสตร์สามารถเอาไปใช้วิจัยและวัดพฤติกรรมการค้าระหว่างประเทศได้อย่างละเอียดแทบจะครบเรือทุกลำที่ออกจากประเทศ A ไปประเทศ B นอกจากนั้นยังมีการคำนวนให้เห็นถึง carbon footprint ของการเดินเรือเหล่านี้อีกด้วย ชุดข้อมูลประเภทนี้ผมมองว่านอกจากจะมาเปลี่ยนสาขาเศรษฐศาสตร์แล้วน่าจะเข้ามามีบทบาทมากในสาขาความสัมพันธ์ระหว่างประเทศด้วย (ลองมองความหนาแน่นแถวๆ ช่องแคบมะละกาและทะเลจีนใต้ดูสิครับ คุณจะเข้าใจเลยว่าทำไมประเทศจีนถึงต้องการเพิ่ม security ในบริเวณนั้น)

ตัวอย่างประเภท 5: วัดพฤติกรรมผู้บริโภคใหม่ – ตัวอย่างนี้น่าจะเป็นที่คุ้นเคยกันมากที่สุดเนื่องจากภาคธุรกิจและการค้าปลีกนั้นเป็นผู้นำในการเก็บข้อมูลขนาดยักษ์มานานแล้ว

ที่มาภาพ : https://www.jpmorganchase.com/corporate/institute/report-how-falling-gas-prices-fuel-the-economy.htm
ที่มาภาพ : https://www.jpmorganchase.com/corporate/institute/report-how-falling-gas-prices-fuel-the-economy.htm

ที่ผมคิดว่าน่าสนใจในระยะหลัง คือ ข้อมูลพฤติกรรมทางการเงิน การที่ธนาคารขนาดยักษ์อย่าง J.P. Morgan Chase สามารถวิเคราะห์ข้อมูลการเงินของลูกค้ากว่า 50 ล้านรายได้นั้นสามารถทำให้เราทราบอะไรได้มากมายที่แบบสอบถามสมัยก่อนอาจจะพลาด เช่น รายงานฉบับนี้พบว่าชาวอเมริกันใช้เงินกว่า 80% ของเงิน “เหลือ” ที่ไม่ต้องเอาไปจ่ายค่าน้ำมันเนื่องจากภาวะราคาน้ำมันตกต่ำ และพบว่าเกือบ 20% ของเงินก้อนนี้นั้นไหลไปสู่ธุรกิจร้านอาหาร หากไม่มี Big Data แบบนี้ ทุกวันนี้เราคงยังหลงเชื่อผลจากแบบสอบถามเก่าๆ ที่บอกว่าชาวอเมริกันใช้เงินต่ำกว่า 50% ของเงินก้อนนี้เมื่อราคาน้ำมันตก

2. เติมเต็ม Prediction ด้วย Causation ให้กับ Big Data

ที่มาภาพ : https://www.flickr.com/photos/orinrobertjohn/4400249825
ที่มาภาพ : https://www.flickr.com/photos/orinrobertjohn/4400249825

นอกจากการสร้างและใช้ข้อมูลใหม่ๆ แล้ว ผมมองว่านักเศรษฐศาสตร์ในอนาคตจะมีหน้าที่เป็นผู้ค้นหา “เพชรในตม” ข้อมูลในอนาคตจะมีปริมาณมากดั่งโคลนตมถึงขั้นที่ “โอกาส” ในการเรียนรู้สิ่งที่มีค่าดุจเพชรนั้นมีน้อยและต้องตั้งใจหามาก
หลังจากที่ได้เกิดกระแส credibility revolution ขึ้นเมื่อไม่กี่ปีที่แล้ว นักเศรษฐศาสตร์รุ่นใหม่ๆ ให้ความสำคัญกับคุณภาพของรูปแบบการวิจัย (research design) และความเป็นเหตุเป็นผลซึ่งกันและกัน (causation) อย่างมาก

ผมคิดว่าจุดที่สาขาเศรษฐศาสตร์จะเข้ามามีส่วนร่วมกับเหล่านักวิทยาศาสตร์ข้อมูลคือ “ความคลั่ง” ในความแตกต่างระหว่าง correlation กับ causation

ใครที่เคยเรียนเศรษฐศาสตร์มาบ้างคงจะเคยได้ยินคำพูดเช่น “การกําหนดให้สิ่งอื่นๆ มีค่าคงที่” “ceteris paribus” หรือ “all else equal” จนเบื่อ เพราะนักเศรษฐศาสตร์สนใจว่าตัวแปร x ทำให้ตัวแปร y เปลี่ยนจริงไหม และแค่ไหน ถ้าราคาขึ้นคนจะซื้อน้อยลงแค่ไหน ไม่ได้สนใจแค่ว่าราคากับการบริโภคมันเชื่อมโยงกัน ความแตกต่างนี้มีความสำคัญเป็นอย่างมากในมุมมองของนักเศรษฐศาสตร์ในการเอาความรู้ไปพัฒนาทฤษฎีใหม่ๆ ยกตัวอย่างง่ายๆ เช่น อัตราเสียชีวิตของคนไทยลดลงในช่วงสิบปีที่ผ่านมา ราคาหุ้นของบริษัทโนเกียก็ลดลงเช่นกัน ทั้งสองอย่างนี้ correlate กันพอสมควร แต่มันไม่มีเหตุผลใดๆ เลยที่ทั้งสองอย่างนี้จะเกี่ยวข้องกัน

ในขณะเดียวกัน นักวิทยาศาสตร์ข้อมูลโดยเฉพาะจากสาขา machine learning มักเน้นความสามารถในการทำนายเป็นหลักและเอา causation เป็นรอง จริงอยู่ที่ในบางกรณีแค่เราสามารถทำนายสิ่งต่างๆ ได้โดยไม่ต้องแตะ causation ก็ถือว่าเยี่ยมแล้ว ยกตัวอย่างเช่น การที่ Netflix สามารถใช้สมองกลเพื่อแนะนำภาพยนตร์หรือทำ quality control ก็ถือว่าบรรลุเป้าหมายแล้ว

แต่ผมคิดว่าเราจะไปได้ไกลกว่านั้นอีกหากสองสาขานี้ร่วมมือกันมากขึ้น

นักเศรษฐศาสตร์ที่เชี่ยวชาญเศรษฐมิตินั้นมักมุ่งเน้นที่จะไปเสาะหาว่าจะเกิดอะไรขึ้นกับสิ่งที่เราสนใจหากเราเปลี่ยนแปลงอะไรบางอย่างในโลกคู่ขนาน (counterfactual) แล้วเอามาเทียบกับโลกจริงที่เราไม่ได้เปลี่ยนอะไร ลูกค้าจะคลิกเพิ่มขึ้นกี่ครั้งหากคุณเอาปุ่ม “Sign Up Now” ไปไว้ที่อื่นบนเว็บคุณเมื่อวาน จะเกิดอะไรขึ้นกับพฤติกรรมลูกค้าหากคุณขึ้นราคาขึ้นมาจริงๆ และคุณค่าที่นักเศรษฐศาสตร์สามารถสร้างให้กับทีมนักวิทยาศาสตร์ข้อมูลจะขึ้นอยู่กับความสามารถในการผนวก Big Data เข้ากับสิ่งที่เรียกว่า “exogenous shock” (ตัวกระตุ้นภายนอก)

พูดง่ายๆ ก็คือ นักเศรษฐศาสตร์สายพันธุ์ใหม่นี้จะต้องมีความสามารถในการเสาะหาข้อมูลแค่บางส่วนที่สะอาดหรือเหมาะสมในคลังข้อมูลขนาดยักษ์ (เพชรในตม) เพื่อเอาไปเจียระไนด้วยเครื่องไม้เครื่องมือที่ทำให้เราได้เรียนรู้ถึงความสัมพันธ์ที่แท้จริงระหว่างตัวแปรที่เราสนใจและทำให้เราตัดสินใจได้ดีขึ้นในอนาคต

ที่มาภาพ : https://www.povertyactionlab.org/sites/default/files/publications/705%20MTO%20and%20Child%20Outcomes%20in%20Chicago%20Aug2015(1).pdf
ที่มาภาพ : https://www.povertyactionlab.org/sites/default/files/publications/705%20MTO%20and%20Child%20Outcomes%20in%20Chicago%20Aug2015(1).pdf

ตัวอย่างชั้นดีที่ชี้ให้เห็นถึงคุณค่าของการผนวก Big Data เข้ากับ exogenous shock คืองานวิจัยของ Chetty et al. (2015) ที่ผนวกข้อมูลภาษีขนาดยักษ์ในสหรัฐฯ เข้ากับข้อมูลจากการทดลองชื่อ The Moving to Opportunity (MTO) ซึ่งทำการสุ่มเลือกให้ 4,604 ครอบครัวในชุมชนยากไร้ในสหรัฐฯ (ประมาณ 15,000 คน) ได้รับเงินสนับสนุนเพื่อให้สามารถย้ายบ้านไปตั้งอยู่ในย่านที่ดีกว่าได้ ทีมวิจัยพบว่า แค่ย้ายบ้านไปในชุมชนที่ดีกว่าก็สามารถเพิ่มอัตราการเข้าเรียนมหาวิทยาลัยและรายได้ของเด็กๆ อายุต่ำกว่า 13 ปีได้เมื่อเขาโตเป็นผู้ใหญ่ จากกราฟด้านบน จะเห็นได้ว่าผลของการสุ่มให้ย้ายบ้านต่อเด็กๆ นั้นแตกต่างกันมากระหว่างเด็กเล็กกับเด็กโต (อีกตัวอย่างที่คล้ายๆ กันคือการผนวกข้อมูลภาษีเข้ากับข้อมูลการสุ่มเด็กๆ เข้าห้องเรียนอนุบาลที่มีคุณภาพแตกต่างกัน ผมเคยเขียนไว้แล้วที่นี่)

อีกหนึ่งข้อดีคือ ถึงแม้เราจะไม่มีข้อมูลจากการทดลองภาคสนาม การทำการทดลองทางเศรษฐศาสตร์ในยุค Big Data นั้นก็มีค่าใช้จ่ายน้อยลงกว่าการทำการทดลองภาคสนามมาก และไม่มีข้อจำกัดว่าขนาดตัวอย่าง (sample size) จะไม่พอเพราะต้นทุนในการทำการทดลองนั้นต่ำกว่า ทุกวันนี้ธุรกิจออนไลน์สามารถสุ่มเปลี่ยนราคาหรือสร้างการทดลองขนาดย่อมได้ด้วยต้นทุนที่ต่ำกว่าการเปลี่ยนราคาจริงๆ ในร้านค้าทั่วไป ยกตัวอย่าง เช่น งานวิจัยชิ้นนี้ทำการทดลองกับ eBay เพื่อตอบคำถาม เช่น ลูกค้าแคร์ค่าส่งของแค่ไหน และความสัมพันธ์ระหว่างราคา Buy Now กับราคาปิดประมูลเป็นอย่างไร ส่วนงานวิจัยชิ้นนี้ ทำการทดลองกับผู้ใช้เว็บไซต์ LinkedIn กว่า 2 ล้านคนและพบว่าเวลาผู้หางานมองเห็นจำนวนผู้สมัครงานในแต่ละโพสต์ทำให้ผู้หางานสมัครงานกันมากขึ้น โดยเฉพาะอย่างยิ่งในกลุ่มผู้หางานเพศหญิง

และถึงแม้เราจะไม่มีทั้งการทดลองภาคสนามและการทดลองออนไลน์ ข้อดีของยุค Big Data คือข้อมูลมีปริมาณและความละเอียดมากจนทำให้เราสามารถเจาะลึกลงไปถึงส่วนที่เล็กมากๆ ได้ เป็นรายลูกค้า รายวินาที ราย transaction ถึงขั้นที่ว่าเราอาจจะสามารถหาการทดลองตามธรรมชาติ (natural experiment) ที่กระทบแค่คนบางคน ลูกค้าบางกลุ่ม แต่ไม่กระทบกลุ่มอื่นได้ง่ายขึ้นกว่าในกรณีที่ข้อมูลเป็นข้อมูลรวม (aggregate data) ที่แทบจะทุกคนถูกกระทบ ตัวอย่างที่น่าสนใจคือ งานวิจัยชิ้นนี้ที่ใช้ความแตกต่างของภาษีมูลค่าเพิ่มในแต่ละรัฐของสหรัฐฯ เพื่อศึกษาว่าผู้บริโภคสินค้าออนไลน์จาก eBay นั้นตอบสนองกับการเปลี่ยนแปลงของระดับภาษีมูลค่าเพิ่มอย่างไร พบว่ายอดขายร่วงลงราว 2% ทุกๆ 1% ที่ภาษีมูลค่าเพิ่มเพิ่มขึ้น อีกหนึ่งตัวอย่างที่ผมเคยเขียนไว้แล้ว ที่นี่คือการใช้ข้อมูลคนไข้และข้อมูลการจำหน่ายยาอันมหาศาลเพื่อศึกษาว่าคนชรามีพฤติกรรมการจำหน่ายยารักษาโรคแค่ไหนเมื่อประกันสุขภาพผู้สูงวัยหมดและต้องควักกระเป๋าออกค่ายาเอง

ในมุมมองนี้ ผมกลับมองว่า Big Data เป็นวัตถุดิบชั้นดีสำหรับนักเศรษฐศาสตร์ในการสร้าง value ในสาขาเศรษฐศาสตร์เองนั้นกระแส Big Data ก็ได้เข้ามามีส่วนในการพิสูจน์ทฤษฎีเก่าๆ แล้ว เช่น ทำไมนโยบายการเงินถึงสามารถก่อให้เกิดผลกระทบต่อภาคเศรษฐกิจจริงได้ การทำ price discrimination (ผู้บริโภคสองคนได้ราคาต่างกันทั้งๆ ที่สินค้าชนิดเดียวกันเป๊ะ) เพิ่มกำไรจริงหรือไม่ ในด้านสังคมก็เริ่มมีนักเศรษฐศาสตร์นำข้อมูลขนาดยักษ์มาใช้เพื่อช่วยให้รัฐบาลทำหน้าที่ได้อย่างมีประสิทธิภาพขึ้นแล้ว เช่น ใช้ข้อมูล text จากรีวิวบน Yelp เพื่อช่วยให้เทศบาลตรวจพบร้านอาหารที่ละเมิดกฎหมายสาธารณสุขจำนวนมากขึ้นภายในเวลาเท่ากัน

สรุป: Big Data คือโอกาส

แม้ว่าสถานการณ์เศรษฐกิจโลกอันซับซ้อนและคลื่นลูกยักษ์ที่ชื่อ Big Data จะทำให้ “สมองคน” ในหมู่นักเศรษฐศาสตร์กังวลว่า “สมองกล” อาจจะเข้ามาลบเลือนบทบาทของพวกเขาได้ในอีกไม่กี่ปี ผมคิดว่านี่เป็นโอกาสมากกว่าอุปสรรคที่จะทำให้สาขาเศรษฐศาสตร์สามารถสร้าง value ให้กับธุรกิจและสังคมได้มากขึ้นอีกผ่าน 2 ช่องทางหลักมคือ 1) การสร้างและใช้ข้อมูลวัดตัวแปรเศรษฐกิจใหม่ๆ และ 2) การสนับสนุนการทำนายและการทำ data mining ด้วยการเสาะหา causality
และจริงๆ แล้ว Big Data นั้นจะเข้ามาเป็นโอกาสสำคัญต่อทุกๆ สาขาเสียด้วยซ้ำไป ผมคิดว่ามันเป็นโอกาสทองในการจับมือร่วมกันระหว่างผู้ใช้ข้อมูลจากหลายๆ สาขา

ยกตัวอย่างง่ายๆ จากประสบการณ์ทำงานของผมเองนะครับ ขณะนี้ผมอยู่ในทีมนักวิจัยที่ทำการศึกษาความสัมพันธ์ระหว่างตลาดแรงงานครูกับความเหลื่อมล้ำและความสำเร็จทางการศึกษาของเด็กๆ ในรัฐมินนิโซตา ปัญหามีอยู่ 2 ปัญหา หนึ่ง คือ เราจะทราบได้อย่างไรในวันนี้ว่าใครจะเป็นครูคุณภาพดีในอีกห้าปี (เอาแค่ว่าครูคนไหนตอนนี้คุณภาพดียังยากเลยครับ) สอง คือ ครูคุณภาพดีๆ ในระบบโรงเรียนรัฐบาลมักย้ายออกจากโรงเรียนที่ส่วนใหญ่มีเด็กๆ จากครอบครัวยากจนจำนวนมากไปทำงานอยู่ในย่านที่เด็กๆ มีโอกาสมากมายแล้ว ทำให้เกิดความเหลื่อมล้ำในคุณภาพครูอย่างรุนแรงที่อีกหน่อยก็จะทำให้เกิดความเหลื่อมล้ำทางการศึกษาโดยรวม

โจทย์ก็คือ จะทำอย่างไรที่จะช่วยให้โรงเรียนคัดครูดีๆ ได้อย่างว่องไวเพื่อลดความเสี่ยงที่จะต้องไล่ครูออก (หรือแย่กว่าคือไล่ครูคุณภาพต่ำออกไม่ได้) และจะดึงดูดครูคุณภาพดีๆ กลับเข้ามาในย่านที่ต้องทำงานหนักกว่าและมีความท้าทายมากกว่าโดยไม่ขึ้นเงินเดือนได้หรือไม่ โจทย์ยากๆ เช่นนี้นอกจากจำเป็นที่จะต้องใช้ข้อมูลอันมหาศาลไม่ว่าจะเป็นข้อมูลการกรอกใบสมัครงานออนไลน์ ข้อมูลการขาดงาน ข้อมูลเงินเดือน ข้อมูลการสอบของเด็กๆ ข้อมูลการสอนของครูจากวิดีโอเทป ข้อมูลตลาดแรงงานครูที่พยายามย้ายโรงเรียน และอีกมากมายแล้ว ยังจำเป็นที่จะต้องมีความร่วมมือกันระหว่างนักวิจัยจากหลายๆ สาขาด้วย ขณะนี้ในทีมนี้จึงมีนักเศรษฐศาสตร์ 4 คน นักวิจัยด้าน Organizational Behavior 2 คน มีนักวิจัยด้านการศึกษา 1 คน มี Child Psychologist 1 คน มี Computer Scientist 2 คน

ที่ทีมเวิร์กระหว่างสาขาสำคัญเป็นพิเศษนั้นเป็นเพราะว่า พฤติกรรมเด็กๆ และพฤติกรรมครูไม่ใช่แค่ตัวเลข 0 1 แต่มีส่วนของความเป็นมนุษย์มีความเป็นจิตวิทยามากว่ามนุษย์มีพฤติกรรมอย่างไรท่ามกลางสภาวะที่มีสิ่งจูงใจต่างชนิด การทำนายว่าครูคนไหนจะมีคุณภาพดีในอนาคตนั้นทุกวันนี้คงไม่มีใครถนัดทำได้ดีเท่ากับ computer scientist ส่วนการจับคู่ครูกับโรงเรียนจริงๆ แล้วในสายตาของนักเศรษฐศาสตร์ก็ไม่เหมือนการจับคู่ภาพยนตร์ 1 เรื่องกับลูกค้าเป็นล้านคนบน Netflix เลย เพราะทั้งครูและทั้งโรงเรียนต้องยินยอมกับการถูกจับคู่พร้อมๆ กัน

จริงอยู่ที่ดูเหมือนว่านับวันปัญหาต่างๆ จะทวีความซับซ้อนขึ้น แต่ผมหวังว่าผู้อ่านจะเห็นเหมือนกับผมหลังจากที่ได้อ่านบทความนี้ว่า Big Data นี่แหละที่จะมาเป็นโอกาสในการแก้ไขปัญหาและพัฒนาคุณภาพชีวิตมนุษย์ครับ

หมายเหตุ: ตีพิมพ์ครั้งแรกที่ “เศรษฐ” ความคิด –settaKid.com ณ วันที่ 25 พฤษภาคม พ.ศ. 2559