Satura rādītājs:
Definīcija - ko nozīmē Hadoop Common?
Hadoop Common attiecas uz kopēju utilītu un bibliotēku kolekciju, kas atbalsta citus Hadoop moduļus. Tā ir būtiska Apache Hadoop Framework sastāvdaļa vai modulis kopā ar Hadoop izplatīto failu sistēmu (HDFS), Hadoop YARN un Hadoop MapReduce. Tāpat kā visi citi moduļi, arī Hadoop Common pieļauj, ka aparatūras kļūmes ir izplatītas un ka Hadoop Framework tām automātiski jāatrisina programmatūra.
Hadoop Common ir arī pazīstams kā Hadoop Core.
Techopedia skaidro Hadoop Common
Hadoop Common pakete tiek uzskatīta par ietvara pamatni / kodolu, jo tā nodrošina būtiskus pakalpojumus un pamata procesus, piemēram, pamatā esošās operētājsistēmas un tās failu sistēmas abstrakciju. Hadoop Common satur arī nepieciešamos Java arhīva (JAR) failus un skriptus, kas nepieciešami Hadoop palaišanai. Hadoop kopējā pakete nodrošina arī avota kodu un dokumentāciju, kā arī sadaļu par ieguldījumiem, kurā iekļauti dažādi Hadoop kopienas projekti.