Apache Parkett ist ein "säulen" Datenspeicherformat, das speziell geschaffen für die Apache Hadoop Familie von Projekten wurde.
Parkett wird empfohlen, mit großen Daten verwendet werden, vor allem weil es eine komplexe Datenkompressionssystem nutzt, die sich auf eine Reihe von optimierten Aufzeichnung Schreddern und Wiederzusammensetzungsalgorithmen.
Auf diese Weise können Daten in einem verschachtelten Format aufgeschlüsselt, organisiert werden, und wieder zusammengebaut, wenn abgefragt.
Das Parkett Format kann auch außerhalb des Hadoop Ökosystem verwendet werden, und zwar wie möglich zu sein als Agnostiker ausgebildet ist, arbeitet mit jeder Art von Datenverarbeitungs-Framework und die Datenspeichermodell.
< strong> Was ist neu in dieser Version:
- Umbenennen von Paketen und maven Koordinaten org.apache
- Fügen Sie Codierung Statistiken zu ColumnMetaData li>
- Streaming-thrift API
- Neue logische Typen
Was ist neu in Version 2.3.0:
- Umbenennen von Paketen und Maven zu org.apache Koordinaten
- Fügen Sie Codierung Statistiken zu ColumnMetaData li>
- Streaming-thrift API
- Neue logische Typen
Einschränkungen :
- Das Projekt ist im Apache Incubator-Repository noch in der Entwicklung und könnten drastisch ab Version ändern auf Version.
Kommentare nicht gefunden