Django è un web framework con licenza open source per lo sviluppo di applicazioni web, scritto in linguaggio Python, seguendo il paradigma “Model-Template-View”.
Il progetto è sviluppato dalla “Django Software Foundation” (DSF), un’organizzazione indipendente senza scopo di lucro.
Il framework è stato sviluppato in un ambiente giornalistico, caratterizzato dalla necessità di pubblicare notizie con rapidità e di organizzare gli spazi in modo flessibile. Alcuni siti noti che utilizzano questo framework sono attualmente Pinterest, Instagram, Mozilla, The Washington Times, e Public Broadcasting Service.
DApp è la sincrasi di decentralized application (applicazione decentralizzata): ovvero un software creato attraverso i contratti intelligenti (smart contract) nella blockchain di Ethereum. Le dApp hanno visto la luce nel 2014 grazie agli strumenti e al particolare linguaggio di scrittura della Blockchain di Ethereum: Solidity. Gli sviluppatori di dApps scrivono degli insiemi di contratti intelligenti che determinano la funziona complessiva di ogni applicazione decentralizzata.
La scienza dei dati (in inglese data science) è l’insieme di principi metodologici (basati sul metodo scientifico) e tecniche multidisciplinari volto a interpretare ed estrarre conoscenza dai dati (Big Data) attraverso la relativa fase di analisi da parte di un esperto (Data Scientist). I metodi della scienza dei dati si basano su tecniche provenienti da varie discipline, principalmente da matematica, statistica, scienza dell’informazione e informatica, in particolar modo nei seguenti sottodomini: basi di dati e visualizzazione dati o business intelligence, intelligenza artificiale o machine learning .
Un dato (dal latino datum che significa letteralmente fatto) è una descrizione elementare, spesso codificata, di una cosa, di una transazione, di un avvenimento o di altro. L’elaborazione dei dati può portare alla conoscenza di un’informazione. Ogni tipo di dato dipende dal codice e dal formato impiegati. I dati possono presentarsi sotto diverse forme: numeri e lettere dell’alfabeto, immagini statiche, immagini in movimento, suono ed altri.
Un Data Lake è un nuovo metodo di lavoro che semplifica e potenzia l’archiviazione, la gestione e l’analisi dei Big Data, utilizzando dati provenienti da fonti diversificate e disomogenee, nel loro formato nativo, o in una copia quasi esatta del formato nativo.
Il termine Data Lake è stato introdotto da James Dixon, Chief Technology Officer di Pentaho. L’immagine dell’acqua in questo caso è calzante, perché questo repository di dati archivia un pool di dati al suo stato naturale, come se fossero forme fluide non ancora filtrate o suddivise in pacchetti. Il flusso dei dati proviene da più fonti e si riversa nel Lake, quindi viene archiviato nel suo formato originale.
I dati all’interno di un Data Lake vengono trasformati solo nel momento in cui occorre analizzarli e, successivamente, viene applicato uno schema per procedere all’analisi.
Un Data Warehouse fornisce un modello di dati strutturato e progettato per la reportistica. Un Data Lake archivia dati non strutturati, non elaborati e senza uno scopo predefinito.
Darwin è un sistema operativo libero che utilizza il kernel XNU. Insieme all’interfaccia grafica proprietaria Aqua, forma il sistema operativo Mac OS X.
La digital forensics (conosciuta anche come scienza digitale forense) è un ramo della scienza forense che comprende il recupero e l’indagine del materiale trovato nei dispositivi digitali, spesso in relazione a eventi di criminalità informatica. Il termine digital forensics inizialmente utilizzato come sinonimo di informatica forense è stato ampliato per coprire l’indagine di tutti i dispositivi in grado di memorizzare i dati digitali. Nasce durante la rivoluzione informatica della fine degli anni ’70, primi anni ’80. L’aspetto tecnico di un’inchiesta è suddiviso in più sottogruppi, relativi al tipo di apparecchiature digitali coinvolte. Oltre a identificare prove dirette di un crimine, la digital forensics può essere utilizzata per attribuire prove a specifici indagati, confermare gli alibi o le dichiarazioni, determinare l’intento, identificare le fonti (ad esempio, nei casi di copyright) o autenticare i documenti.
L’apprendimento profondo (in inglese deep learning) è quel campo di ricerca dell’apprendimento automatico (in inglese Machine Learning) e dell’intelligenza artificiale, che fa riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello chiamate reti neurali artificiali. Le architetture di Deep Learning sono per esempio state applicate nella computer vision, nel riconoscimento automatico della lingua parlata, nell’elaborazione del linguaggio naturale, nel riconoscimento audio e nella bioinformatica.
Il termine deep web si usa per riferirsi a quella porzione del web non indicizzata dai motori di ricerca. Si stima che il deep web sia tra le 500 e le 5.000 volte più ampio del Web superficiale, formato da qualcosa come 600 miliardi di pagine web.
Per entrare nel deep web non sono necessari strumenti particolari: basta usare il browser web, qualunque esso sia, e conoscere le credenziali per visualizzare i contenuti esclusi dai motori di ricerca.
Con base di dati o banca dati (a volte abbreviato con la sigla DB dall’inglese data base) in informatica si indica un insieme di dati strutturati ovvero omogeneo per contenuti e formato, memorizzati in un elaboratore elettronico e interrogabili (query) via terminale utilizzando le chiavi di accesso previste. Rappresenta di fatto il formato digitale, dunque più efficiente, equivalente a un archivio dati o schedario, con il vantaggio di molteplici funzionalità e prestazioni implementate in maniera automatica su PC su scelta/input dell’utente.