สิ่งที่ผู้บริหารทุกคนต้องการทราบเกี่ยวกับวันที่ Facebook หายไปจากอินเทอร์เน็ต
เผยแพร่แล้ว: 2022-03-11นอกเหนือจาก CTO แล้ว ผู้บริหารส่วนใหญ่ไม่มีแบนด์วิดท์ในการมีส่วนร่วมอย่างลึกซึ้งกับการดำเนินงานของเครือข่ายด้านเทคนิค ดังนั้นจึงเป็นเรื่องน่าประหลาดใจ—และบางทีอาจเป็นข้อกังวล—สำหรับผู้นำที่จะเรียนรู้ว่าฟังก์ชันเครือข่ายทั้งหมดของบริษัทของพวกเขา ทั้งภายในและภายนอก ทำงานบนโปรโตคอลเดียวที่เขียนลงบนผ้าเช็ดปากสองอันในการประชุมเทคโนโลยีในปี 1989
เรียกว่าโปรโตคอลเกตเวย์ชายแดนหรือ BGP กำหนดเส้นทางของการรับส่งข้อมูลทั้งหมดบนเซิร์ฟเวอร์ที่เราใช้เพื่อนำทางทุกอย่างตั้งแต่โซเชียลมีเดีย อีเมล และคลาวด์ไดรฟ์ ไปจนถึงการสแกนบัตรเข้าที่ประตูรักษาความปลอดภัยของสำนักงาน BGP คือสิ่งที่ทุกเครือข่ายต้องพึ่งพาเพื่อให้ทำงานได้อย่างถูกต้อง ซึ่งรวมถึงในบริษัทของคุณด้วย นี่คือแกนหลักที่ทำให้เครือข่ายภายในและภายนอกทั้งหมดของ Facebook ล่มสลายในวันจันทร์ที่ 4 ตุลาคม พ.ศ. 2564
Facebook Outage เกิดขึ้นได้อย่างไร
Facebook เป็นมากกว่าเครือข่ายโซเชียลที่ใหญ่ที่สุดในโลก เป็นยักษ์ใหญ่ด้านเทคโนโลยี ผู้ใช้งานเว็บไซต์ 3 พันล้านคนสร้างข้อมูลหลายล้านกิกะไบต์ทุกวัน ต้องการศูนย์ข้อมูลขนาดใหญ่ 17 แห่งทั่วโลก และสถาปัตยกรรมที่ซับซ้อนซึ่งสนับสนุนอาณาจักรดิจิทัลอันกว้างใหญ่
ยักษ์ใหญ่ด้านเทคโนโลยีเป็นประเทศหนึ่งสำหรับตัวเองและเป็นผู้นำด้านวิศวกรรมเครือข่ายและนวัตกรรมมาช้านาน แต่นั่นไม่ได้หมายความว่าระบบจะไม่เสี่ยงต่อไฟดับ ดังที่พิสูจน์แล้วเมื่อวันที่ 4 ตุลาคม เมื่อโลกเฝ้าดูเครือข่ายทั้งหมดของ Facebook ล่มนานกว่าเจ็ดชั่วโมง นั่นคือชั่วนิรันดร์ในเศรษฐกิจโลกที่ไม่หยุดนิ่ง—และอาจทำให้บริษัทต้องเสียรายรับประมาณ 100 ล้านดอลลาร์
Alexander Sereda ผู้จัดการฝ่ายพัฒนาผลิตภัณฑ์ซอฟต์แวร์ของ Toptal และอดีต CTO ของ Rhino Security Labs กล่าวว่าหลังจากเหตุการณ์ดังกล่าวเกิดขึ้น ผู้นำของบริษัทจำเป็นต้องพิจารณากระบวนการของตนเองอย่างละเอียดถี่ถ้วน “หากสิ่งนี้เกิดขึ้นได้กับ Facebook สิ่งนั้นก็สามารถเกิดขึ้นกับคุณได้” เขากล่าว
ในขณะที่รายละเอียดทั้งหมดยังไม่ปรากฏ ผู้เชี่ยวชาญของ Toptal ได้ระบุบทเรียนสำคัญหลายประการที่ผู้นำระดับสูงสามารถเรียนรู้ได้จากเหตุการณ์นั้น บทเรียนหนึ่งคือแม้แต่วิศวกรรมที่ล้ำสมัยที่สุดก็ยังสามารถยกเลิกได้ด้วยความผิดพลาดของมนุษย์
การชันสูตรพลิกศพที่เผยแพร่โดย Facebook ในช่วงไม่กี่วันหลังจากการหยุดทำงานชี้ให้เห็นถึงข้อผิดพลาดของมนุษย์ ซึ่งเป็นปฏิสัมพันธ์ของวิศวกรกับโปรโตคอลเซิร์ฟเวอร์ โดยเฉพาะ BGP ซึ่งเป็นผู้กระทำผิดหลักในการทำให้เครือข่ายล่ม
ตามคำแถลงของบริษัท "คำสั่งออกมาโดยมีจุดประสงค์เพื่อประเมินความพร้อมของความจุของแกนหลักทั่วโลก" คำสั่งนั้นคืออะไรและมีข้อผิดพลาดอะไรบ้าง เราไม่รู้ และ Facebook ไม่ได้พูด แต่บริษัทได้เพิ่มว่า "ระบบได้รับการออกแบบมาเพื่อตรวจสอบคำสั่งเช่นนี้ เพื่อป้องกันข้อผิดพลาดเช่นนี้ แต่ข้อบกพร่องในเครื่องมือตรวจสอบนั้นทำให้ไม่สามารถหยุดคำสั่งได้อย่างเหมาะสม"
ความผิดพลาดทำให้เกิดการแตกสาขาเป็นลำดับ เพราะเห็นได้ชัดว่าบริษัทใช้เครื่องมือตรวจสอบอัตโนมัติเพื่อตรวจจับปัญหาดังกล่าว
คำสั่งที่ผิดพลาดซึ่งออกในระหว่างการอัพเดทตามปกติได้ตัดการเชื่อมต่อทั้งหมดภายในแกนหลักของ Facebook ซึ่งเป็นเครือข่ายระดับบนสุดของการเชื่อมต่อไฟเบอร์ออปติกระหว่างศูนย์ข้อมูล ณ จุดนั้น ระบบ BGP ของบริษัท ซึ่งรับผิดชอบในการทำแผนที่เส้นทางที่มีอยู่ทั้งหมดผ่านเครือข่าย ไม่สามารถระบุเส้นทางที่ถูกต้องในศูนย์ข้อมูลทั่วโลกของบริษัทได้อีกต่อไป สิ่งนี้มีประสิทธิภาพตัด Facebook ออกจากอินเทอร์เน็ตและเครือข่ายภายในของบริษัทเอง ซึ่งยังอาศัย BGP สำหรับข้อมูลการกำหนดเส้นทาง ไม่มีใครสามารถนำทางในโซเชียลเน็ตเวิร์กได้ แม้แต่พนักงาน Facebook ที่อยู่ภายในสถานที่ของพวกเขาเอง
โดยปกติ เมื่อมีการเพิ่มข้อมูลการอัพเดทไปยังการกำหนดค่าเซิร์ฟเวอร์ BGP จะทำซ้ำตำแหน่งก่อนหน้าทั้งหมดจากไฟล์ที่จัดเก็บไว้ และเพิ่มตำแหน่งใหม่ลงในแผนที่ที่เชื่อมต่อ Facebook กับอินเทอร์เน็ต แต่ในกรณีนี้ ตำแหน่งทั้งหมดสูญหายไปจนกว่าวิศวกรจะสามารถกู้คืนข้อมูลสำรอง BGP ได้จริง
“มันเป็นสถานการณ์ที่ยากลำบาก ยากเสมอที่จะป้องกันทุกคำสั่งที่อาจนำไปสู่ความล้มเหลว” James Nurmi สถาปนิก นักพัฒนาระบบคลาวด์ Toptal และ Google ศิษย์เก่า ซึ่งมีประสบการณ์มากกว่าสองทศวรรษในการช่วยเหลือบริษัทต่างๆ เพิ่มความน่าเชื่อถือของเครือข่ายกล่าว “ลักษณะของการกำหนดค่าเราเตอร์หรืออุปกรณ์ที่ซับซ้อนใดๆ หมายความว่าคำสั่งในบริบทหนึ่งอาจเป็นสิ่งที่คุณต้องการอย่างแน่นอน แต่ในอีกบริบทหนึ่งอาจนำไปสู่หายนะได้”
ความจริงที่ว่าความผิดพลาดของแต่ละคนเป็นหัวใจสำคัญของการหยุดทำงานของ Facebook ไม่ควรถูกมองข้ามว่าเป็นปัญหาเฉพาะในองค์กรของตน ข้อผิดพลาดของมนุษย์เป็นสาเหตุทั่วไปที่ทำให้เครือข่ายขัดข้อง
Uptime Institute เผยแพร่ผลการศึกษาประจำปีเกี่ยวกับขอบเขตและผลที่ตามมาของข้อมูลขาดหายเช่นเดียวกับที่ Facebook ประสบ ในปี 2020 ซึ่งเป็นปีที่มีการเพิ่มขึ้นอย่างมากในการประมวลผลแบบคลาวด์เนื่องจากการระบาดของ COVID-19 รายงานพบว่าศูนย์ข้อมูลอย่างน้อย 42% สูญเสียเวลาเซิร์ฟเวอร์เนื่องจากความผิดพลาดที่เกิดจากบุคคลที่โต้ตอบกับเครือข่าย ไม่ใช่ โครงสร้างพื้นฐานหรือข้อบกพร่องทางเทคนิคอื่นๆ
ข้อผิดพลาดของผู้ใช้ภายในรายเดียวสามารถทำให้เกิดการล่มสลายของเครือข่าย Facebook ได้อย่างไร เสนอมุมมองที่น่าสนใจเกี่ยวกับระดับขั้นสูงของวิศวกรรมในองค์กร ทีมวิศวกรรมของบริษัทมุ่งเน้นที่การทำให้เทคโนโลยีเครือข่ายมีความยืดหยุ่นและปรับขนาดได้มากที่สุดเท่าที่จะเป็นไปได้ โดยการคิดทบทวนแนวทางและการออกแบบแบบดั้งเดิม ตามรายงานการวิจัยทางวิชาการที่ Facebook ให้การสนับสนุนเมื่อต้นปีนี้ เอกสารนี้มีรายละเอียดว่าบริษัทได้ขยายบทบาทของ BGP ให้มากกว่าแค่โปรโตคอลการกำหนดเส้นทางทั่วไปอย่างไร ให้เป็นเครื่องมือสำหรับการปรับใช้เซิร์ฟเวอร์ใหม่และการอัปเดตซอฟต์แวร์อย่างรวดเร็ว เกือบจะเป็นการพยากรณ์ บทความนี้ยังให้แผนงานบางอย่างสำหรับวิธีที่คำสั่งที่ผิดพลาดหนึ่งคำสั่งสามารถปิดเครือข่ายทั่วโลกได้
ค่าไฟดับ Facebook
การหยุดทำงานส่วนใหญ่ที่พาดหัวข่าวในปีที่แล้วไม่ได้ส่งผลกระทบต่อระบบที่สำคัญ และส่วนใหญ่เป็นความไม่สะดวกของผู้บริโภคและพนักงานจากระยะไกล เช่น การหยุดชะงักหรือการชะลอตัวของเครื่องมือในการทำงานร่วมกัน (เช่น Microsoft Teams, Zoom) ไซต์การพนันออนไลน์ และเครื่องมือติดตามการออกกำลังกาย อย่างไรก็ตาม สำหรับบริษัทที่ประสบปัญหาเหล่านี้ ราคาในแง่ของการสูญเสียรายได้ ประสิทธิภาพการทำงาน และความไว้วางใจของลูกค้ามีความสำคัญ
แม้ว่าการสรุปค่าใช้จ่ายของการหยุดชะงักจะเป็นเรื่องยากเนื่องจากความหลากหลายของธุรกิจที่รวมอยู่ในรายงานดังกล่าวของ Uptime นักวิจัยคาดการณ์ว่าการหยุดทำงานอาจมีราคาตั้งแต่ 140,000 ต่อชั่วโมงในระดับต่ำสุดไปจนถึง 540,000 เหรียญต่อชั่วโมงที่ระดับสูงกว่า จากรายได้ในไตรมาสที่สองของ Facebook เครือข่ายโซเชียลอาจสูญเสียรายรับ 99.75 ล้านดอลลาร์เนื่องจากการหยุดทำงานในวันที่ 4 ตุลาคมตามการคาดการณ์ของ Fortune

Erik Stettler นักวิทยาศาสตร์ด้านข้อมูล หัวหน้านักเศรษฐศาสตร์ของ Toptal และผู้ร่วมก่อตั้งบริษัทร่วมทุน Firstrock Capital ตั้งข้อสังเกต “การประมาณการใช้แนวทางเชิงเส้นมาก แต่ไม่ใช่ว่าทุกหน่วยของเวลาจะผันแปรได้เท่ากัน และรายรับของ Facebook นั้นซับซ้อนกว่าการบอกว่าทุก ๆ วินาทีสร้างรายได้เท่ากันทุก ๆ วินาที” เขากล่าว
ยิ่งไปกว่านั้น หากปริมาณการใช้ข้อมูลพุ่งสูงขึ้นหลังจากไฟฟ้าดับ Facebook อาจชดใช้ค่าเสียหายบางส่วน Stettler กล่าว ในทางกลับกัน หากปริมาณการใช้ข้อมูลยังต่ำ บริษัทอาจสูญเสียมากขึ้น สิ่งที่ชัดเจนคือปัญหา IT ที่หยุดชะงักมีผลกระทบทางการเงินสำหรับธุรกิจ และการเตรียมพร้อมสำหรับความล้มเหลวเหล่านี้ล่วงหน้าเป็นกุญแจสำคัญ “เทคโนโลยีใด ๆ ผิดพลาดได้ ด้วยการจัดการความเสี่ยง มันไม่เกี่ยวกับการทำให้แน่ใจว่าจะไม่มีอะไรเกิดขึ้น แต่เกี่ยวกับการเตรียมพร้อมเมื่อถึงเวลานั้น และการเตรียมความพร้อมนั้นเป็นพื้นฐานสำหรับแผนธุรกิจของคุณ” เขากล่าว “ไม่ใช่ 999 วันที่ถูกต้องที่แสดงความเป็นผู้นำของคุณ—เป็นวันหนึ่งในพันที่ไม่ได้ไปด้วยดี”
3 บทเรียนสำคัญจากการหยุดทำงานของ Facebook
การรักษาความปลอดภัยเป็นสิ่งสำคัญยิ่ง แม้ว่าจะสร้างความไม่สะดวกให้กับลูกค้าก็ตาม
ในขณะที่การปิดตัวของ Facebook เกิดขึ้นอย่างรวดเร็ว แต่เซิร์ฟเวอร์ทั้งหมดของบริษัทต้องใช้เวลามากกว่าเจ็ดชั่วโมงในการกลับมาออนไลน์ ส่วนหนึ่งเป็นเพราะการสื่อสารเครือข่ายภายในของ Facebook ก็บกพร่องเช่นกัน ระยะเวลาที่เพิ่มขึ้นของการหยุดทำงานนั้นเกิดจากกระบวนการรักษาความปลอดภัยที่เข้มงวดเพื่อป้องกัน Facebook และผู้ใช้จากแฮกเกอร์และภัยคุกคามความปลอดภัยทางไซเบอร์อื่น ๆ นโยบายเหล่านี้รวมถึงระบบราชการที่เข้มงวดโดยไม่มีการเข้าถึงจากระยะไกล และมีเพียงไม่กี่คนเท่านั้นที่มีสิทธิ์เข้าถึงระบบที่จำเป็นในการรีสตาร์ทการดำเนินการด้านเครือข่ายของบริษัทด้วยตนเอง
ตามที่ Alexander Avanesov ผู้พัฒนา Toptal ที่มีประสบการณ์มากกว่า 20 ปีในการสร้างและดูแลเครือข่ายที่ปลอดภัยและแพลตฟอร์มระดับองค์กร ความล่าช้าในการรีสตาร์ทระบบของ Facebook เป็นสิ่งหนึ่งที่ถูกต้องสำหรับบริษัทในวันนั้น
“น่าเสียดาย ไม่มีทางที่จะมีปฏิกิริยาตอบสนองที่รวดเร็วและปลอดภัยอย่างสมบูรณ์” เขากล่าว Facebook ไม่ได้เปิดเผยตัวเองหรือลูกค้าของตนต่อการละเมิด และมีแนวโน้มว่าจะไม่แพ้ผู้ใช้เพียงคนเดียว ดังนั้นในแง่นี้ บริษัทจึงทำทุกอย่างถูกต้อง Avanesov กล่าว “พวกเขามีความเสี่ยงมากขึ้นในการละเมิดความปลอดภัยหากพวกเขาไม่ได้ติดตั้งระบบที่ซับซ้อนเช่นนี้”
การเจรจาภายในระหว่างปฏิกิริยาที่รวดเร็วและการรักษาความปลอดภัยเป็นสิ่งจำเป็นสำหรับบริษัทใดๆ ที่พึ่งพาเครือข่ายเพื่อเชื่อมต่อกับตัวสร้างรายได้หลัก เขากล่าว สำหรับบริษัทขนาดเล็กหรือธุรกิจในตลาดที่มีการแข่งขันสูง การหยุดทำงานอาจเป็นตัวทำลายข้อตกลงกับลูกค้า อย่างไรก็ตาม การตอบสนองที่รวดเร็วขึ้นในบางครั้งหมายถึงอุปสรรคด้านความปลอดภัยที่ต่ำกว่าสำหรับการเข้าถึงระบบที่สำคัญ
วิธีแก้ปัญหาที่กำหนดเองช่วยให้บริษัทของคุณตอบสนองได้เร็วขึ้น
แม้ว่าข้อผิดพลาดของมนุษย์จะไม่สามารถขจัดออกไปได้โดยสิ้นเชิงเนื่องจากเป็นความเสี่ยง แต่ก็มีหลายวิธีสำหรับการดำเนินการที่มีขนาดเล็กกว่าเพื่อลดโอกาสที่ความผิดพลาดจะกวาดล้างเครือข่ายทั้งหมดเช่นเดียวกับที่ทำใน Facebook Nurmi กล่าว "ทางออกที่ดีที่สุดที่ฉันเคยเห็นในสถานการณ์เช่นนี้คือการกำหนดค่าอุปกรณ์ด้วยสวิตช์ของคนตาย" เขากล่าว “คุณเปิดใช้งานการเปลี่ยนแปลงของคุณ แต่ก่อนที่จะได้รับการบันทึกอย่างถาวร ตัวจับเวลาจะถูกตั้งไว้ หากการกำหนดค่าไม่ได้รับการยืนยันในช่วงเวลาหนึ่ง การกำหนดค่าจะถูกเปลี่ยนกลับ”
แม้ในสถานการณ์นี้ ก็ยังมีความเสี่ยงที่จะเกิดการหยุดทำงาน แต่การหยุดทำงานนั้นน่าจะเป็นนาทีสุดท้ายแทนที่จะเป็นชั่วโมง แม้ว่าข้อผิดพลาดร้ายแรงจะผ่านการตรวจสอบภายในทุกระดับที่จำเป็นก็ตาม เขากล่าว
ลงทุนเวลาและเงินเพื่อให้ความรู้แก่ทีมไอทีของคุณ การมีพนักงานที่ได้รับการฝึกอบรมมาเป็นอย่างดีเป็นวิธีที่ง่ายที่สุดและคุ้มค่าที่สุดในการเพิ่มความพร้อมและการตอบสนองต่อเหตุขัดข้องของเครือข่าย
มีตัวเลือกเพิ่มเติมบางอย่างสำหรับบริษัทที่กำลังมองหาโปรโตคอลความปลอดภัยที่ช่วยให้มีเวลาตอบสนองต่อการหยุดทำงานเร็วขึ้น โดยไม่อนุญาตให้เข้าถึงโครงสร้างพื้นฐานภายนอกในระดับสูง ระบบที่สามารถสร้างรหัสผ่านแบบใช้ครั้งเดียวสำหรับบุคลากรในสถานที่เพื่อหลีกเลี่ยงความเสี่ยงจากการถูกแฮ็กข้อมูลจากระยะไกลสามารถป้องกันไม่ให้ต้องรอการมาถึงของพนักงานไอทีที่มีการเข้าถึงเซิร์ฟเวอร์ในระดับที่สูงขึ้น Avanesov กล่าว การสร้างวิธีแก้ปัญหาประเภทนี้ในเครือข่ายมีราคาไม่แพงและไม่ยุ่งยากเกินไปในการรวมระบบ เขากล่าว อย่างไรก็ตาม บุคลากรในสถานประกอบการยังคงต้องการความเชี่ยวชาญในการแก้ไขข้อผิดพลาดที่ทำให้เกิดการหยุดทำงานอย่างมีนัยสำคัญ
เพื่อให้ได้ผลลัพธ์ที่ดีที่สุด เตรียมพร้อมสำหรับสิ่งที่แย่ที่สุด
Austin Dimmer ผู้พัฒนา Toptal ผู้สร้างและจัดการเครือข่ายที่ปลอดภัยสำหรับ European Commission, Lego และ Publicis Worldwide เรียกใช้การจำลองแบบละเอียดสำหรับปัญหาเครือข่ายและเหตุการณ์ภัยพิบัติอื่นๆ ที่อาจเกิดขึ้นได้เป็นสิ่งจำเป็นสำหรับการเอาชีวิตรอดในสถานการณ์วิกฤต การเตรียมพร้อมเมื่อตอบสนองต่อการล่มสลายของเครือข่ายอาจเป็นกุญแจสำคัญในการจำกัดความเสียหายและหลีกเลี่ยงปัญหาที่เกิดซ้ำ
คำแถลงของ Facebook เกี่ยวกับขั้นตอนการกู้คืนหลังการชนแสดงให้เห็นจุดแข็งที่สำคัญภายในความพร้อมของบริษัทสำหรับการดำเนินงานในช่วงวิกฤต Dimmer บอกกับ Toptal Insights “พวกเขารู้ดีว่ากำลังทำอะไร” เขากล่าว “การนำกลับมาออนไลน์ทั้งหมดนั้นมีความเสี่ยงมากเพราะมีโอกาสโอเวอร์โหลดในศูนย์ข้อมูลและแม้กระทั่งไฟลุกได้ แต่เนื่องจากพวกเขาได้ฝึกฝนการจำลองสถานการณ์ภัยพิบัติต่างๆ ทีมงานที่ Facebook ค่อนข้างพร้อมรับมือกับความเครียดนั้น สถานการณ์และมีความมั่นใจในการฟื้นฟูเครือข่ายอย่างปลอดภัยและถูกวิธี”
Dimmer ชี้ไปที่ลูกค้าของเขาที่เพิ่งถูกโจมตีด้วยแรนซัมแวร์ เนื่องจาก Dimmer และทีมไอทีได้ผ่านสถานการณ์นั้นมาแล้วเพียงไม่กี่สัปดาห์ก่อนหน้านี้ เขารู้ว่าข้อมูลสำรองของบริษัทนั้นปลอดภัย เขาแนะนำว่าลูกค้าไม่จ่ายเงินให้แฮกเกอร์และเดินหน้าต่อไป ลูกค้ากู้คืนจากการละเมิดโดยไม่มีผลกระทบต่อการดำเนินงานและไม่มีวันจ่ายเงินสำหรับพวกโจรกรรมทางอินเทอร์เน็ต
ไม่ว่าจะยอมรับการรักษาความปลอดภัยและแผนการเตรียมความพร้อมรับมือกับภัยพิบัติแบบใดก็ตาม ความเป็นผู้นำของผู้บริหารจะต้องลงทุนทั้งเวลาและเงินในการให้ความรู้แก่ทีมไอทีของบริษัท สถาบัน Uptime Institute พบว่า การมีพนักงานที่ได้รับการฝึกอบรมมาเป็นอย่างดีเป็นวิธีที่ง่ายและคุ้มค่าที่สุดในการเพิ่มความพร้อมขององค์กรและการตอบสนองต่อปัญหาเครือข่าย ข้อผิดพลาดของมนุษย์ สาเหตุหลักของการขัดข้องของเครือข่าย มักเกิดจากกระบวนการที่ไม่เพียงพอหรือความล้มเหลวในการปฏิบัติตามขั้นตอนที่มีอยู่แล้ว
เหตุขัดข้องของเครือข่ายเป็นสิ่งที่หลีกเลี่ยงไม่ได้ เพื่อลดผลกระทบด้านการเงินและชื่อเสียง ผู้นำบริษัทต้องยอมรับข้อเท็จจริงนั้น—และเตรียมตัวล่วงหน้าอย่างดี การตัดสินใจโดยเจตนาเกี่ยวกับการรักษาความปลอดภัย ความพร้อม และการตอบสนองช่วยให้องค์กรลดผลกระทบและเปลี่ยนจากวิกฤตไปสู่การฟื้นตัวด้วยความมั่นใจ
Michael McDonald นักเขียนอาวุโส Toptal สนับสนุนรายงานนี้
