하둡이란? Hadoop, 기능 및 사용 사례 소개
게시 됨: 2020-01-26빅 데이터는 의심할 여지 없이 인기 있는 분야입니다.
학습 과정에서 많은 솔루션과 기술을 접하게 됩니다. 그 중 가장 중요한 것은 아마도 Apache Hadoop일 것입니다. Hadoop 소개에서 다음과 같은 많은 인기 있는 질문에 대한 답변을 찾을 수 있습니다.
"하둡이란 무엇입니까?"
“하둡의 특징은 무엇입니까?”
"어떻게 작동합니까?"
파헤쳐 봅시다.

목차
하둡이란?
Hadoop은 빅 데이터 산업에서 꽤 인기 있는 오픈 소스 프레임워크입니다. hadoop의 미래 범위, 다용성 및 기능으로 인해 모든 데이터 과학자에게 필수품이 되었습니다.
간단히 말해서 Hadoop은 쉽게 액세스할 수 있고 분산된 환경에 빅 데이터를 저장할 수 있는 도구 모음입니다. 데이터를 병렬로 처리할 수 있습니다.
하둡은 어떻게 만들어졌는가
Yahoo는 2006년에 Hadoop을 만들었고 2007년에 이 기술을 사용하기 시작했습니다. 2008년에 Apache Software Foundation에 제공되었습니다. 그러나 이 강력한 프레임워크를 만드는 데 도움이 되는 몇 가지 개발이 이루어졌습니다.
2003년 Doug Cutting은 Nutch라는 프로젝트를 시작했습니다. Nutch는 수많은 웹 페이지와 수십억 개의 온라인 검색 색인을 처리하기 위해 만들어졌습니다.
그해 말 Google은 Google 파일 시스템을 출시했습니다. 몇 달 후 Google은 MapReduce를 출시했습니다. Apache Spark와 MapReduce에 대해 자세히 알아보기
Yahoo는 이러한 기술을 기반으로 Hadoop을 만들 수 있었습니다. Hadoop은 사용자가 데이터를 큰 장치 대신 여러 개의 작은 장치에 저장할 수 있도록 하여 데이터 처리 속도를 높였습니다.
문제는 데이터 저장 장치의 크기가 점점 커지고 있다는 것입니다. 그리고 이러한 장치에서 데이터를 처리하는 것은 시간이 많이 걸리고 고통스럽습니다. Hadoop의 제작자는 데이터를 여러 개의 소형 어플라이언스에 보관함으로써 데이터를 병렬로 처리하고 시스템의 효율성을 상당히 높일 수 있다는 것을 깨달았습니다.
Hadoop을 사용하면 크고 값비싼 데이터 저장 장치 구입에 대한 걱정 없이 데이터를 저장하고 처리할 수 있습니다. 참고로 하둡은 코끼리 장난감에서 이름을 따왔습니다 . 이 장난감은 소프트웨어 제작자 중 한 사람의 아들 소유였습니다.
Hadoop의 구성 요소 소개
Hadoop은 광범위한 프레임워크입니다. 데이터를 저장하고 처리하는 데 도움이 되는 많은 구성 요소가 있습니다.
그러나 주로 두 섹션으로 나뉩니다.
- HDFS는 Hadoop 분산 파일 시스템의 약자입니다.
- 실
전자는 데이터를 저장하는 것이고 후자는 데이터를 처리하는 것입니다. Hadoop은 간단해 보이지만 마스터하려면 약간의 노력이 필요합니다. Hadoop을 사용하면 다양한 클러스터에 데이터를 저장할 수 있습니다. 데이터는 모든 형식이 될 수 있습니다.
오픈 소스 소프트웨어이므로 무료로 사용할 수 있습니다. 그 외에도 Hadoop은 작업을 더 빠르게 수행하는 데 도움이 되는 많은 빅 데이터 도구로 구성되어 있습니다. 위에서 언급한 Hadoop의 두 섹션 외에도 Hadoop Common 및 Hadoop MapReduce도 있습니다.
이전 두 섹션만큼 중요하지는 않지만 여전히 상당히 중요합니다.
이해를 돕기 위해 Hadoop의 각 섹션을 분류해 보겠습니다.
HDFS:
Hadoop 분산 파일 시스템을 사용하면 쉽게 액세스할 수 있는 형식으로 데이터를 저장할 수 있습니다. 데이터를 여러 노드에 저장하므로 데이터를 배포합니다.
HDFS에는 마스터 노드와 슬레이브 노드가 있습니다. 마스터 노드를 네임노드라고 하고 슬레이브 노드를 데이터노드라고 합니다. Namenode는 저장된 블록의 위치, 복제되는 데이터 블록 등과 같은 저장 데이터의 메타데이터를 저장합니다.
DataNode를 관리하고 구성합니다. 실제 데이터는 DataNode에 저장됩니다.
따라서 HDFS가 사무실이라면 NameNode는 관리자이고 DataNode는 작업자입니다. HDFS는 데이터를 상호 연결된 여러 장치에 저장합니다. 클라우드는 물론 사무실에서도 마스터 노드와 슬레이브 노드를 설정할 수 있습니다.
실:
YARN은 'Yet Another Resource Negotiator'의 약자입니다. 중요한 운영 체제이며 빅 데이터 프로세스에서 응용 프로그램을 찾습니다.
작업 스케줄링 및 자원 관리 기술입니다. YARN 이전에는 작업 추적기가 자원 관리 계층과 처리 계층을 별도로 처리해야 했습니다.
대부분의 사람들은 약간의 유머일 뿐이므로 이 기술의 전체 이름을 사용하지 않습니다. YARN은 리소스 관리자로서의 필요에 따라 특정 애플리케이션에 리소스를 할당할 수 있습니다. 또한 다양한 처리 작업을 모니터링하는 노드 수준 에이전트가 있습니다.
YARN은 여러 스케줄링 방법을 허용합니다. 이 기능은 작업 예약을 위한 이전 솔루션이 사용자에게 어떤 옵션도 제공하지 않았기 때문에 YARN을 환상적인 솔루션으로 만듭니다. 특정 처리 작업을 위해 일부 클러스터 소스를 예약할 수 있습니다. 그 외에도 사용자가 예약할 수 있는 리소스 수를 제한할 수 있습니다.
맵리듀스:
MapReduce 는 Apache Hadoop 컬렉션에 있는 또 다른 강력한 도구입니다. 주요 업무는 데이터를 식별하고 데이터 처리에 적합한 형식으로 변환하는 것입니다.
Map과 Reduce(따라서 MapReduce라는 이름)의 두 섹션이 있습니다. 첫 번째 섹션은 데이터를 식별하고 병렬 처리를 위해 청크로 넣습니다. 두 번째 섹션은 전체 입력 데이터를 요약합니다.
MapReduce는 실패한 프로젝트도 실행할 수 있습니다. 먼저 매핑을 수행한 다음 섞고 마지막으로 줄이는 작업으로 작업을 분할합니다. MapReduce는 인기 있는 Hadoop 솔루션으로, 그 기능으로 인해 업계에서 단골 이름이 되었습니다.
Python 및 Java와 같은 여러 프로그래밍 언어에서 작동할 수 있습니다. 빅 데이터 전문가로서 이 도구를 여러 번 사용할 것입니다.
하둡 공통:
Hadoop Common은 Hadoop 사용자를 위한 무료 도구 및 소프트웨어 모음입니다. 작업을 더 쉽고 효율적으로 만들 수 있는 놀라운 도구 라이브러리입니다.
읽기: Hadoop 관리자가 되려면?
Hadoop Common에 있는 도구는 Java로 되어 있습니다. 이 도구를 사용하면 운영 체제에서 Hadoop 파일 시스템에 있는 데이터를 읽을 수 있습니다.
Hadoop Common의 또 다른 일반적인 이름은 Hadoop Core입니다.
이 네 가지는 Apache Hadoop에서 가장 눈에 띄는 도구 및 프레임워크입니다. 빅 데이터 요구 사항을 위한 다른 솔루션이 많이 있지만 그 중 몇 개만 사용할 가능성이 있습니다. Hadoop 도구에 대해 자세히 알아보십시오.
반면에 작업하는 모든 프로젝트에 이 네 가지를 모두 사용해야 할 가능성이 큽니다. 확실히 탁월한 빅 데이터 솔루션입니다.
Hadoop으로 해결되는 빅 데이터 문제
방대한 양의 데이터로 작업할 때 여러 문제에 직면하게 됩니다. 데이터 수가 증가하면 데이터 저장 요구 사항도 증가합니다. Hadoop은 이와 관련하여 많은 문제를 해결합니다.
그들에 대해 자세히 논의합시다.
데이터 저장
빅데이터는 방대한 양의 데이터를 다룬다. 그리고 이러한 방대한 양을 기존의 방법으로 저장하는 것은 매우 비현실적입니다.
기존의 방법에서는 매우 비싼 하나의 큰 스토리지 시스템에 의존해야 합니다. 또한 빅 데이터를 처리함에 따라 스토리지 요구 사항도 계속 증가할 것입니다. Hadoop을 사용하면 데이터를 분산 방식으로 저장할 수 있으므로 이와 관련하여 걱정할 필요가 없습니다.
Hadoop은 여러 DataNode에 걸쳐 블록 형태로 데이터를 저장합니다. 이러한 블록의 크기를 결정할 수 있는 옵션이 있습니다. 예를 들어, 256MB의 데이터가 있고 64MB의 데이터 블록을 유지하도록 선택한 경우 총 4개의 다른 블록이 있습니다.
Hadoop은 HDFS를 통해 이러한 블록을 DataNode에 저장합니다. 분산 스토리지는 확장도 용이합니다. Hadoop은 수평 확장을 지원합니다.

데이터를 저장하기 위해 새 노드를 추가하거나 현재 DataNode의 리소스를 확장할 수 있습니다. Hadoop을 사용하면 데이터를 저장하기 위해 하나의 광범위한 시스템이 필요하지 않습니다. 이를 위해 여러 개의 소형 스토리지 시스템을 사용할 수 있습니다.
이기종 데이터
오늘날 데이터는 다양한 형태로 존재합니다. 비디오, 텍스트, 이름, 오디오, 이미지 및 기타 여러 형식을 시장에서 사용할 수 있습니다. 그리고 회사는 여러 형식의 데이터를 저장해야 할 수도 있습니다. 기본적으로 데이터는 세 가지 형식으로 나뉩니다.
- 구조화
- 고정된 형식으로 저장, 액세스 및 처리할 수 있는 데이터를 구조화된 데이터라고 합니다.
- 비정형
- 구조나 형태를 알 수 없는 데이터를 비정형 데이터라고 합니다. 텍스트, 이미지 및 비디오의 조합을 포함하는 파일은 구조화되지 않은 데이터의 예가 될 수 있습니다.
- 반구조화
- 이 형식의 데이터에는 정형 데이터와 반정형 데이터가 모두 포함됩니다.
이러한 모든 형식의 데이터를 처리해야 할 수도 있습니다. 따라서 여러 데이터 형식도 유지할 수 있는 스토리지 시스템이 필요합니다. Hadoop에는 사전 덤핑 스키마 유효성 검사가 없습니다. 그리고 Hadoop에서 특정 데이터 조각을 작성한 후에는 다시 읽을 수 있습니다.
이기종 데이터를 저장할 수 있는 Hadoop의 기능은 많은 조직에서 선호하는 또 다른 큰 이유입니다.
액세스 및 처리 속도
데이터를 저장하는 것 외에도 또 다른 주요 문제는 데이터에 액세스하고 처리하는 것입니다. 기존 스토리지 시스템에서는 특정 데이터 조각을 얻는 데 많은 시간이 걸립니다. 하드 디스크 공간을 더 추가하더라도 그에 따라 액세스 속도가 증가하지 않습니다. 그리고 그것은 많은 지연을 일으킬 수 있습니다.
하나의 100Mbps I/O 채널이 있는 장치로 1TB 데이터를 처리하는 경우 프로세스를 완료하는 데 약 3시간이 걸립니다. 반면에 4개의 다른 장치를 사용하는 경우 프로세스는 1시간 이내에 완료됩니다.
액세스 속도는 빅 데이터의 필수적인 부분입니다. 데이터에 액세스하고 처리하는 데 시간이 오래 걸릴수록 대기하는 데 더 많은 시간이 소요됩니다.
Hadoop에서 MapReduce는 처리 논리를 여러 슬레이브 노드로 보냅니다. 이렇게 하면 슬레이브 노드에 저장된 데이터가 병렬로 처리됩니다. 전체 데이터가 처리되면 슬레이브 노드는 결과를 마스터 노드로 보내고 마스터 노드는 결과를 결합하고 요약을 사용자(클라이언트)에게 제공합니다.
전체 프로세스가 병렬로 진행되기 때문에 많은 시간이 절약됩니다. Hadoop은 저명한 데이터 전문가가 직면한 많은 문제를 해결합니다. 그러나 이것이 유일한 데이터 저장 솔루션은 아닙니다.
Hadoop이 수평적 확장을 가능하게 하는 오픈 소스 프레임워크인 반면, 관계형 데이터베이스 관리 시스템은 수직적 확장을 허용하는 또 다른 솔루션입니다. 둘 다 광범위하게 접근할 수 있으며 빅 데이터를 배우고 싶다면 익숙해야 합니다.
하둡의 기능
Hadoop은 Fortune 500대 기업에서 매우 인기가 있습니다. 빅 데이터 분석 기능 때문입니다. 이제 하둡이 생성된 이유와 구성 요소가 무엇인지 알았으므로 하둡의 기능에 집중해 보겠습니다.
빅데이터 분석
Hadoop은 빅 데이터 분석을 위해 만들어졌습니다. 방대한 양의 데이터를 처리하고 짧은 시간에 처리할 수 있습니다. 스토리지 시스템의 효율성을 저해하지 않으면서 방대한 양의 데이터를 저장할 수 있습니다.
Hadoop은 데이터를 클러스터에 저장하고 병렬로 처리합니다. 논리를 작업 노드로 전송하기 때문에 더 적은 네트워크 대역폭을 사용할 수 있습니다. 데이터의 병렬 처리를 통해 많은 시간과 에너지를 절약할 수 있습니다.
비용 효율성
Hadoop 사용의 또 다른 이점은 비용 효율성입니다. 기업은 기존 기술 대신 Hadoop을 사용하여 데이터 저장 장치에 막대한 비용을 절감할 수 있습니다.
기존의 스토리지 시스템은 기업과 조직이 하나의 거대한 데이터 스토리지 유닛을 사용해야 합니다. 앞에서 논의한 것처럼 이 방법은 빅 데이터 프로젝트를 처리하는 데 지속 가능하지 않기 때문에 많이 사용되지 않습니다. 매우 비싸고 데이터 요구 사항이 증가함에 따라 비용이 계속 증가합니다.
반면에 Hadoop은 상용 저장 장치를 사용할 수 있게 하여 운영 비용을 줄입니다. 이는 하나의 거대하고 값비싼 스토리지 시스템 대신 여러 개의 저렴하고 간단한 데이터 스토리지 장치를 사용할 수 있음을 의미합니다.
대용량 데이터 저장 장치를 실행하려면 많은 비용이 듭니다. 같은 것을 업그레이드하는 것도 비용이 많이 듭니다. Hadoop을 사용하면 더 적은 수의 데이터 저장 장치를 사용하고 더 적은 비용으로 업그레이드할 수 있습니다. Hadoop은 또한 운영 효율성을 향상시킵니다. 대체로 모든 기업을 위한 탁월한 솔루션입니다.
스케일링
모든 조직의 데이터 요구 사항은 시간이 지남에 따라 증가할 수 있습니다. 예를 들어, Facebook의 계정 수는 항상 증가하고 있습니다. 조직의 데이터 요구 사항이 증가함에 따라 데이터 스토리지를 더욱 확장해야 합니다.
Hadoop은 더 많은 데이터 확장을 위한 보안 옵션을 제공합니다. 여기에는 클러스터 노드를 더 추가하여 대규모로 확장할 수 있는 클러스터가 있습니다. 노드를 더 추가하여 Hadoop 시스템의 기능을 쉽게 향상시킬 수 있습니다.
또한 시스템 확장을 위해 애플리케이션 로직을 수정할 필요가 없습니다.
오류 수정
Hadoop의 환경은 노드에 저장된 모든 데이터를 복제합니다. 따라서 특정 노드에 장애가 발생하여 데이터가 손실되면 이를 백업할 노드가 있습니다. 데이터 손실을 방지하고 동일한 걱정 없이 자유롭게 작업할 수 있습니다. 노드 장애와 상관없이 데이터를 처리하고 프로젝트를 계속할 수 있습니다.
다중 솔루션
Hadoop에는 모든 전문가가 매우 쉽게 작업할 수 있는 많은 빅 데이터 솔루션이 있습니다. Apache의 천재들은 Hadoop을 환상적인 빅 데이터 솔루션으로 만들기 위해 많은 노력을 기울였습니다.
Cloudera 라고 하는 Hadoop의 상용 솔루션은 다양한 빅 데이터 방식을 지원합니다. 또한 요구 사항에 맞게 Hadoop을 실행, 최적화, 설치 및 구성하는 데 도움이 되므로 Hadoop 작업을 단순화할 수 있습니다.
Hadoop Common에는 작업을 더 쉽게 해주는 많은 도구가 있습니다. Hadoop은 Apache 제품이므로 항상 도울 준비가 되어 있는 다른 전문가들로 구성된 유익한 커뮤니티가 있습니다. 성능도 향상시키는 정기적인 업데이트를 받습니다.
많은 장점이 있는 Hadoop은 모든 빅 데이터 전문가가 빠르게 선호하는 제품이 되었습니다. Hadoop은 다양성과 기능 때문에 많은 산업 분야에서 사용됩니다. Hadoop에 대해 자세히 알아보려면 Hadoop 자습서를 확인하십시오.
응용 프로그램을 이해할 수 있도록 주요 사용 사례에 대해 논의해 보겠습니다.
세계 최고의 대학에서 온라인으로 소프트웨어 개발을 배우십시오 . 이그 제 큐 티브 PG 프로그램, 고급 인증 프로그램 또는 석사 프로그램을 획득하여 경력을 빠르게 추적하십시오.
하둡 사용 사례
Hadoop은 탁월한 빅 데이터 솔루션이므로 빅 데이터 기술을 사용하는 모든 산업 분야에서 이 솔루션을 사용할 것입니다. Hadoop 애플리케이션의 많은 예가 있습니다.
다양한 분야의 기업들도 빅데이터의 중요성을 깨닫고 있습니다. 그들은 처리해야 하는 많은 양의 데이터를 가지고 있습니다. 이것이 그들이 Hadoop 및 기타 빅 데이터 솔루션을 사용하는 이유입니다.
상당한 양의 직원 데이터에서 긴 소비자 번호 목록에 이르기까지 데이터는 어떤 형식이든 될 수 있습니다. 그리고 앞서 논의한 것처럼 Hadoop은 빠른 데이터 액세스 및 처리를 용이하게 하는 강력한 데이터 스토리지 프레임워크입니다.
Hadoop 사용 사례의 많은 예가 있으며 그 중 일부는 아래에 설명되어 있습니다.
소셜 미디어
Facebook 및 기타 소셜 미디어 플랫폼은 사용자 데이터를 저장하고 여러 기술(예: 기계 학습)을 통해 처리합니다.
비디오에서 사용자 프로필에 이르기까지 Hadoop을 통해 저장할 수 있는 다양한 데이터를 저장해야 합니다.

보건 의료
병원에서는 Hadoop을 사용하여 환자의 의료 기록을 저장합니다. 보다 쉽게 액세스할 수 있는 플랫폼에 데이터를 저장하여 많은 시간과 리소스를 절약할 수 있습니다.
환자의 청구 데이터를 보다 접근 가능한 플랫폼(Hadoop)에 저장함으로써 이러한 기록을 더 잘 관리할 수 있습니다.
빅 데이터 및 Hadoop에 대해 알아보기
Hadoop 및 빅 데이터에 대해 더 알고 싶으십니까?
그렇다면 이 주제의 모든 개념에 익숙해지고 해당 분야의 공인 전문가가 되도록 하는 광범위한 빅 데이터 과정을 살펴볼 수 있습니다 .
소프트웨어 개발에 대해 자세히 알아보려면 LJMU의 컴퓨터 공학 이학 석사를 확인하세요. 이 석사는 일하는 전문가를 위해 설계되었으며 12개 이상의 프로젝트 및 과제, 업계 멘토와의 1-ON-1, 500시간 이상의 학습을 제공합니다.