Hacking

Il termine hacking è uno dei più inflazionati vocaboli legati all’informatica: avendo accompagnato, fin dall’inizio, lo sviluppo delle tecnologie di elaborazione e comunicazione dell’informazione, ha assunto diverse sfumature a seconda del periodo storico e dello specifico ambito di applicazione.geeks-academy-aree-corsi-coding-cybersecurity-big-data-gaming

Condividi su:

Apache Hive

Apache Hive è un sistema di data warehouse per Apache Hadoop. Hive consente di eseguire attività di riepilogo, query e analisi dei dati. Le query di Hive sono scritte in HiveQL, linguaggio di query simile a SQL.

Hive consente di proiettare la struttura su dati principalmente non strutturati. Dopo aver definito la struttura, è possibile usare HiveQL per eseguire una query sui dati anche senza alcuna conoscenza di Java o MapReduce.

HDInsight offre diversi tipi di cluster ottimizzati per carichi di lavoro specifici. I tipi di cluster usati più di frequente per le query Hive sono i seguenti:Interactive Query; Hadoop, Spark, HBase.

Mentre all’inizio fu sviluppato da Facebook, Apache Hive è ora usato e sviluppato da altre compagnie come Netflix. Amazon mantiene un fork di Apache Hive che include l’Amazon Elastic MapReduce su Amazon Web Services.

Condividi su:

Host

Si definisce un nodo ospite (in inglese host o end system) ogni terminale collegato ad una rete o più in particolare ad Internet. Un nodo ospite può essere di diverso tipo, ad esempio computer, palmari, dispositivi mobili e così via, fino a includere web TV, dispositivi domestici e thin client. Il nodo ospite è definito in questo modo perché ospita programmi di livello applicativo che sono sia client, sia server. Ogni nodo di Internet ha un Indirizzo IP univocamente assegnato.

geeks-academy-aree-corsi-coding-cybersecurity-big-data-gaming

Condividi su:

Hacker

L’hacker (in italiano pirata informatico) è un esperto di informatica, programmazione, sistemi e sicurezza informatica, in grado di introdursi/violare illegalmente ovvero senza autorizzazione reti di computer. Amano esplorare le possibilità offerte da un sistema informatico e mettere alla prova le proprie capacità. Comunemente si associa il termine hacker ai criminali informatici, ma in questo caso la definizione è “cracker“.

geeks-academy-corso-ethical-hacking-2019

Condividi su:

Hash

l’HASH, o impronta digitale, è il risultato di un algoritmo “funzione di Hash”. Le funzioni di Hash hanno 2 caratteristiche principali:

  1. da una stringa di lunghezza arbitraria danno una stringa di lunghezza definita;
  2. sono funzioni irreversibili, e cioè dal risultato ottenuto (la striga di lunghezza definita) non è possibile risalire alla stringa di lunghezza arbitraria di partenza.

Per rendere immodificabile il contenuto dei blocchi della Blockchain, ogni blocco viene “sigillato” con un Hash calcolato con la funzione S.H.A. 256 che prende come argomento, per esempio tutte le transazioni in esso contenute. L’Hash in questo caso funziona da codice di controllo: modificando anche di una sola virgola il contenuto di un blocco questo andrebbe in conflitto con il suo Hash evidenziando così la contraffazione. Ma nella Blockchain anche l’ordine cronologico dei blocchi è immodificabile e questo sempre grazie all’Hash dei blocchi. Infatti l’argomento dell’Hash che chiude un blocco include, in realtà, anche l’Hash del blocco precedente.

geeks-academy-blockchain-developer-professional
Condividi su:

HDFS

L’Hadoop Distributed File System (in sigla HDFS) è un file system distribuito, portabile e scalabile scritto in Java progettato appositamente per immagazzinare un’enorme quantità di dati (big data), in modo da ottimizzare le operazioni di archiviazione e accesso a un ristretto numero di file di grandi dimensioni, ciò a differenza dei tradizionali file system che sono ottimizzati per gestire numerosi file di piccole dimensioni. Un cluster in Hadoop tipicamente possiede uno o più name node (su cui risiedono i metadati dei file) e un insieme di data node (su cui risiedono, in blocchi di dimensione fissa, i file dell’HDFS). I formati più usati per i file su HDFS sono Comma-separated values, Apache Avro, Apache ORC e Apache Parquet.

Condividi su:

HBase

HBase è un database distribuito non relazionale open source modellato sulla Bigtable di Google e scritto in Java . Si è sviluppato come parte di Apache Software Foundation, progetto Apache Hadoop e viene eseguito sulla parte superiore della HDFS (Hadoop Distributed File System) o Alluxio , fornendo funzionalità Bigtable simile per Hadoop. Cioè, fornisce un modo Fault tolerance (tollerante ai guasti) per immagazzinare grandi quantità di rado dati (piccole quantità di informazioni catturate all’interno di una vasta raccolta di dati vuoti o non importanti, come trovare i 50 articoli più grandi in un gruppo di 2 miliardi di record o trovare gli elementi diversi da zero che rappresentano meno dello 0,1% di una vasta raccolta).

HBase funziona su HDFS ed è adatto per operazioni di lettura e scrittura più veloci su set di dati di grandi dimensioni con throughput elevato e bassa latenza di input / output.

La HBase sta attualmente servendo diversi siti Web basati sui dati  ma la piattaforma di messaggistica di Facebook è recentemente migrata da HBase a MyRocks. A differenza dei database relazionali e tradizionali, HBase non supporta gli script SQL; invece l’equivalente è scritto in Java, usando la somiglianza con un’applicazione MapReduce.

Condividi su:

Hibernate

Hibernate (talvolta abbreviato in H8) è una piattaforma middleware open source per lo sviluppo di applicazioni Java, attraverso l’appoggio al relativo framework, che fornisce un servizio di Object-relational mapping (ORM) ,in poche parole, permette ad uno sviluppatore che programma con il paradigma orientato ad oggetti di parlare con il mondo relazionale (e quindi con il paradigma dei database relazionali), continuando ad utilizzare il paradigma orientato ad oggetti.geeks-academy-aree-corsi-coding-cybersecurity-big-data-gaming

Condividi su: