Scarica la brochure - Technology Transfer

L A
T E C H N O L O G Y
Roma, 4-5 Dicembre 2014
Residenza di Ripetta
Via di Ripetta, 231
T R A N S F E R
P R E S E N T A
INTERNATIONAL
SUMMIT
2 0 1 4
BIG DATA
ANALYTICS
D
E
S
C
r
I
z
I
o
N
Nel 2014 quasi tutte le aziende in Europa si sono concentrate su due cose. La prima è migliorare la conoscenza del cliente per mantenere e far crescere i propri clienti. La seconda è migliorare
i propri processi riducendo i costi, aumentare l’efficienza e migliorare l’efficacia. Questo significa
che le aziende vogliono analizzare nuove sorgenti dati, sia interne che esterne, che possono essere molto grandi in termini di volume, possono variare come tipologia dati ed essere generate a velocità molto elevate. C’è un requisito per capire il comportamento del cliente e l’interazione attraverso tutti i canali. I dati del clickstream in particolare cominciano ad essere molto richiesti dal momento in cui molte persone preferiscono l’on-line come modo preferito di fare transazioni di business. Capire il comportamento on-line è diventato per molte aziende un must. C’è anche la necessità di analizzare le interazioni e il sentimento sociale. Non c’è quindi da sorprendersi se Hadoop è
diventato il centro di Big Data Analytics. Inoltre lo spostamento verso l’on-line e l’emergenza dei
dati dei sensori ha creato una domanda di velocità nel catturare e manipolare dati non strutturati e
questo ha determinato la crescita di popolarità dei DBMS NoSQL. Nuovi tipi di workloads analitici
oggi girano su piattaforme esterne al Data Warehouse e vediamo concentrare l’attenzione su Hadoop Data Hubs, NoSQL databases, streaming analytics, in-memory file systems e in-memory
processing, self-service data integration, exploratory analyisis, Serch, Machine learning, self-service BI e SQL su Hadoop.
Ma come dare un senso a tutto questo? Come allinearli con le necessità di business? Quale
dovrebbe essere una strategia Big Data? Come mettere insieme tutte queste cose e collocarle all’interno di una architettura? Come partire? Come fare il design di databases NoSQL? Dovreste
scaricare i carichi di lavoro esistenti su Hadoop? Come organizzare Hadoop? Quali sono le Best
Practices?
Questo Summit è finalizzato a spiegare come usare i Big Data per ottenere un vantaggio competitivo. Esamina casi d’uso importanti di Big Data, Hadoop deep dive e Streaming Analytics,
DBMSs NoSQL e il modo per integrare Hadoop all’interno della Vostra architettura analitica. Infine
esamina il problema sempre crescente della Data Governance e del Data Management in un ambiente Big Data.
E
D
E
S
C
r
I
z
I
o
Gli argomenti trattati includeranno:
• Il valore di business dei Big Data: casi d’uso per le tecnologie Big Data
• Integrare Big Data Analytics nel Vostro ambiente analitico esistente
• Hadoop: Best Practices in implementazioni di successo
• Usare Big Data Analytics e self-service BI per una nuova conoscenza del cliente
• Data modeling per databases NoSQL
• Analizzare i dati in movimento usando Apache Storm
• Database SQL analitici per Big Data
• Data Governance: costruire un Data Hub su Hadoop
N
E
SPEAKERS
Mike
Ferguson
È Managing Director Europeo di Intelligent Business
Bernard
Marr
Mike
Ferguson
Rick
Van Der Lans
Strategies Limited. Come consulente è specializzato
Vladimir
Bacvanski
in sistemi Database, Business Intelligence, Enterprise
Application Integration, Corporate ed e-Business
Portals, soluzioni intelligenti di CRM e di Supply
operato consulenze per importanti aziende ed è
stato frequentemente speaker in molti eventi e
seminari in tutto il mondo. È stato Principal e cofondatore della Codd & Date UK e Chief Architect
alla NCR sul DBMS Teradata.
Bernard
Marr
È fondatore e CEO di Advanced Performance
Institute. È autore di best sellers su problematiche
di business, consulente in strategy management,
performance management, analytics, KPIs e Big
Data. Aiuta le aziende a gestire meglio, misurare e
analizzare la performance dell’azienda. Ha
lavorato con importanti organizzazioni ed enti
governativi in tutto il mondo. Ha scritto numerosi
libri e articoli tecnici su Enterprise Performance e
Analytics. Ricordiamo i best sellers Key
Performance Indicators, The Intelligent
Company, More with Less, Managing and
Delivering Performance e Strategic
Performance Management.
SCHEDA D’ISCRIZIONE
Chain. Ha più di 30 anni di esperienza di IT, ha
Da restituire compilata a:
Technology Transfer
Piazza Cavour, 3 - 00193 Roma
Tel. 06-6832227
Fax 06-6871102
www.technologytransfer.it
[email protected]
Partecipanti
Direttori IT, CIO, IT Managers,
Architetti IT, Business
Intelligence Managers,
Professionisti di Data
Warehousing, Data Scientists,
Enterprise Architects,
Data Architects
Rick
Van Der Lans
È un consulente indipendente, autore e docente
specializzato in Business Intelligence, Data
Warehousing e SOA. È Managing Director di
R20/Consultancy. È uno speaker molto apprezzato e
di fama internazionale, negli ultimi dieci anni ha
tenuto seminari in molti Paesi Europei, Sud America,
QUOTA DI PARTECIPAZIONE
Euro 1400 (+IVA)
La quota di partecipazione comprende documentazione, colazioni di lavoro e coffee breaks.
MODALITÀ DI ISCRIZIONE
Il pagamento della quota, IVA inclusa, dovrà
essere effettuato tramite bonifico, codice Iban:
IT 03 W 06230 03202 000057031348
Banca: Cariparma
Agenzia 1 di Roma
intestato alla Technology Transfer S.r.l.
e la ricevuta di versamento inviata insieme
alla scheda di iscrizione a:
TECHNOLOGY TRANSFER S.r.l.
Piazza Cavour, 3 - 00193 ROMA
(Tel. 06.6832227 - Fax 06. 6871102)
CONDIZIONI GENERALI
In caso di rinuncia con preavviso inferiore a 15
giorni verrà addebitato il 50% della quota di partecipazione, in caso di rinuncia con preavviso
inferiore ad una settimana verrà addebitata l’intera quota.
In caso di cancellazione del seminario, per qualsiasi causa, la responsabilità della Technology
Transfer si intende limitata al rimborso delle
quote di iscrizione già pervenute.
SCONTI DI GRUPPO
Se un’azienda iscrive allo stesso evento 5 partecipanti, pagherà solo 4 partecipazioni. Chi
usufruisce di questa agevolazione non ha diritto
ad altri sconti per lo stesso evento.
ISCRIZIONI IN ANTICIPO
I partecipanti che si iscriveranno al seminario 30
giorni prima avranno uno sconto del 5%.
USA e Australia. È chairman del Database System
Show (organizzato ogni anno in Olanda dal 1984) e
cura una rubrica nelle due principali riviste
specializzate del Benelux Computable e DataNews.
È anche Advisor di riviste come Software Release
Magazine e Database Magazine. Ha scritto numerosi
libri tra cui citiamo Introduction to SQL e The SQL
Guide to Oracle che sono stati tradotti in molte
lingue e hanno venduto più di 100.000 copie.
entro il 19 Novembre 2014
ROMA
4-5 Dicembre 2014
Residenza di Ripetta
Via di Ripetta, 231
In caso di rinuncia o di cancellazione dei
seminari valgono le condizioni generali
riportate sopra.
Quota di iscrizione
Euro 1400 (+IVA)
DURATA ED ORARIO
2 giorni: 9.30 - 13.00
14.00 - 17.00
International
Summit
2014
Vladimir
Bacvanski
Nome
Cognome
Fondatore di SciSpike. È un consulente e mentore su
Funzione aziendale
software avanzato, tecnologie dati, specializzato in
Azienda
Partita IVA
tecnologie NoSQL e Big Data. Ha più di 20 anni di
Codice fiscale
esperienza nelle aree di architettura e design di
Indirizzo
sistemi enterprise distribuiti e mission critical, sistemi
CAP
e lingiaggi rule-based, tools di modeling, sistemi
Città
Provincia
real-time, agent systems e tecnologie database. Ha
Telefono
anche una notevole esperienza in software
Fax
architecture e analisi dei requisiti.
E-mail
Timbro e firma
isto
È prevvizio
il ser zione
u
di tradltanea
simu
Tutela dati personali Ai sensi dell’art. 13 della legge n. 196/2003, il partecipante è informato che i
suoi dati personali acquisiti tramite la scheda di partecipazione al seminario saranno trattati da
Technology Transfer anche con l’ausilio di mezzi elettronici, con finalità riguardanti l’esecuzione
degli obblighi derivati dalla Sua partecipazione al seminario, per finalità statistiche e per l’invio di
materiale promozionale dell’attività di Technology Transfer. Il conferimento dei dati è facoltativo
ma necessario per la partecipazione al seminario. Il titolare del trattamento dei dati è Technology
Transfer, Piazza Cavour, 3 - 00193 roma, nei cui confronti il partecipante può esercitare i diritti
di cui all’art. 13 della legge n. 196/2003.
P R O G R A M M A
Prima Giornata
Sessione 1
Il valore di Business dei Big Data:
casi d’uso per le tecnologie Big Data
Bernard Marr
Mentre il clamore sui Big Data sembra non avere mai fine, molte aziende stanno pianificando e implementando progetti sui
Big Data. Per fare questo devono prima determinare come i Big
Data e le tecnologie Analitiche possono essere usate per ottenere un vantaggio competitivo e poi mettere insieme una strategia per i Big Data. Questa sessione spiega come le aziende
possono trarre valore dai Big Data e quali aspetti devono essere considerati per mettere a punto una strategia sui Big Data.
• Capire il business case per i Big Data
• I 10 modi più conosciuti su come i Big Data possono dare
benefici alla Vostra azienda
• Modi semplici di trovare e far leva su nuovi insiemi di dati
• Molti esempi dal mondo reale di come aziende in diversi settori
stanno usando i Big Data
• Cinque semplici passi per creare una strategia sui Big Data
per il Vostro business
Sessione 2
Integrare Big Data Analytics nel Vostro
ambiente analitico esistente
Mike Ferguson
Molte organizzazioni hanno fatto significativi investimenti nei
tradizionali Data Warehouse e nella tecnologia di Business Intelligence, ma l’avvento dei Big Data e le nuove piattaforme tecnologiche hanno fatto capire alle aziende di dovere far convivere il tutto all’interno di una moderna architettura analitica. Questa sessione guarda al mondo tradizionale e ai Big Data e mostra come le tecnologie tradizionali di DW/BI possono essere
messe insieme alle tecnologie Big Data per creare un ecosistema analitico integrato.
• Architetture tradizionali di Data Warehouse
• Nuovi dati, nuovi Big Data Analytics workloads
• Perché è necessaria una nuova architettura per la multiplatform analytics
• Le tecnologie che compongono un moderno ecosistema analitico
• Rilasciare analitica negli ambienti tradizionali e Big Data
• Accedere ai Big Data usando tools esistenti di BI e SQL su
Hadoop
• Data Management negli ambienti tradizionali e Big Data
• Trattare con l’acquisizione ad alti volumi di dati e ad alta velocità
• Il modello operativo organizzativo per il moderno ecosistema
analitico
Sessione 3
Hadoop: Best Practices in implementazioni
di successo
Vladamir Bacvanski
Le parole chiave di un moderno IT sono Big Data e Hadoop.
Negli anni passati la capacità di processare grandi volumi di
dati era appena sufficiente e all’inizio sono stati commessi molti errori. Oggi, dal momento che Hadoop è più maturo, ci aspettiamo un uso più sofisticato. In questa sessione verranno indirizzati i casi applicativi per Hadoop e i suoi elementi chiave.
Verrà comparato il classico Hadoop con Hadoop 2.0 e YARN,
la nuova architettura per Hadoop e verrà presentato il path di
migrazione. Hadoop può essere programmato in molti modi
usando Java, Pig, Hive, Scala (Scalding). Verranno esaminate
le migliori applicazioni per ciascuna di queste tecnologie. Si
parlerà anche di integrazione con i vecchi sistemi e di governance che sono aspetti critici per il successo di Hadoop. Infine
si parlerà della crescita dell’ecosistema Hadoop e dei sistemi
come Storm e Spark.
• Casi applicativi per Hadoop
• Una veloce panoramica di data processing con Hadoop
• Hadoop 2.0, YARN e path di migrazione
• Scegliere il giusto modello di programmazione: Java, Pig,
Hive Scala e Scalding
• Integrazione con i sistemi convenzionali: Hadoop per ETL
• Governance
• Ottenere successi veloci
• Espandere l’orizzonte con Apache Storm e Spark
Sessione 4
Seconda Giornata
Usare Big Data Analytics e self-service BI
per una nuova conoscenza del cliente
Bernard Marr
Sessione 5
Data Modeling per Databases NoSQL
Per molte aziende oggi il focus sul cliente è una top priority. Conoscere meglio il cliente è una necessità per mantenere i clienti
esistenti, per aumentare il loro valore, per acquisirne di nuovi e
non lasciare scoperti nuovi mercati e opportunità. In particolare
fare business on line sul Web impone di conoscere meglio il
comportamento del cliente e migliorare la customer experience
management e la customer satisfaction. Questa sessione spiega come le aziende possono far leva su Big Data Analytics e
self-service BI per migliorare la completa conoscenza del cliente e ottenere un vantaggio competitivo.
• Capire come i Big Data possono aumentare la conoscenza del
cliente
• Avere una nuova visione a 360° dei Vostri clienti
• Usare Big Data Analytics per centrare gli obiettivi con i Vostri
clienti
• Migliorare il Vostro decision-making ad ogni contatto con il
Vostro cliente
• Molti esempi dal mondo reale di come le aziende stanno usando Big Data Analytics e Self-Service BI
Rick van der Lans
Molti sistemi Big Data sono sviluppati usando prodotti NoSQL
come MongoDB, HBase, MapR e Cassandra. Questi prodotti
sono stati progettati per memorizzare e processare una enorme
quantità di dati, permettendo di sviluppare sistemi che fino a pochi anni fa sembravano impensabili. Come dice il nome, questi
prodotti non si basano su SQL né sui sistemi relazionali, non
operano con tabelle e righe ma supportano strutture gerarchiche, repeating groups, famiglie di colonne, insiemi, liste, e così
via. E, come potete immaginare, tutto questo ha un forte impatto sul Data Modeling. Questa sessione parla dei cambiamenti
nel Data Modeling quando la tecnologia di memorizzazione dei
dati è un sistema NoSQL.
• Panoramica su key-value, document, column-family e graph
data stores
• Spiegazione dei concetti non relazionali, come column-families, gerarchie, insiemi e liste
• La memorizzazione di dati non strutturati o semi strutturati è
veramente più flessibile?
• Le differenze fra schema-on-read e schema on-write
• Regole per trasformare i modelli classici di dati a concetti NoSQL
Sessione 6
Analizzare i dati in movimento usando
Apache Storm
Vladimir Bacvanski
La velocità è uno degli aspetti chiave dei Big Data e non è gestita dai tradizionali sistemi Hadoop. Apache Storm, sviluppato
originariamente da Twitter per analizzare i tweets in real-time, è
diventato un sistema dominante per la nuova architettura Hadoop YARN. In questa sessione si parlerà di stream analytics, il
modello architetturale e di programmazione di Storm e il modo
di trovare soluzioni scalabili fault tolerant. La sessione si conclude parlando di Architettura Lambda, che combina i Big Data
con stream processing real-time.
• Dati in movimento e processing real-time: casi d’uso
• Data Processing di Storm e Hadoop
• Architettura di Storm
• Topologie di processing, streams, spouts e bolts
• Ottenere alta performance, parallelismo e scalabilità
• Ottenere fault tolerant: cluster setup
• Scrivere applicazioni Storm
• Architettura Lambda
• Best Practices di applicaziioni Storm
Sessione 7
I Big Data sono solo un grande annuncio o
offrono veramente dei vantaggi reali di
Business?
Panel con Vendors e Speakers
Sessione 8
Databases analitici SQL per Big Data
Rick van der Lans
Ma i sistemi NoSQL non sono la sola alternativa. Le aziende
possono anche optare per database servers analitici SQL specializzati. Prodotti che ricordano i classici database servers
SQL ma che sono stati ottimizzati internamente per analitica
complessa e reporting su grandi volumi di dati. I vantaggi di
questa tecnologia sono produttività, familiarità e accessibilità
da molti tools di reporting e di analitica. Questa sessione presenta una panoramica del mercato dei databases servers analitici SQL e risponde a domande, ad esempio: quali tecniche usano internamente per aumentare la performance della query?
Come integrarli con Hadoop? Perché il mercato europeo è così
lento nell’adottare questa tecnologia? Come fare la comparazione con Hadoop e NoSQL?
• Panoramica di mercato includendo Actian Matrix and Vector,
Exasol, HP Vertica, IBM PureData System for Analytics, Kognitio, Microsoft Analytics Platform System, Pivotal Greenplum, SAP HANA and SAP IQ, Teradata Appliance and Teradata Aster Database
• Gli engines SQL-on-Hadoop possono essere qualificati come
database servers analitici SQL?
• Memorizzare e accedere dati SQL in Hadoop
• L’importanza della produttività e dell’agilità
Sessione 9
Data Governance:
costruire un Data Hub su Hadoop
Mike Ferguson
Molte aziende che hanno adottato precocemente Hadoop si
sono dovute confrontare con la necessità di reperire gli skills
necessari per lavorare in questo ambiente. I Data Scientists
non solo hanno bisogno di skills in statistica e matematica ma
anche nella programmazione Java e MapReduce APIs. Ma negli
ultimi 18 mesi abbiamo visto molti miglioramenti sulla piattaforma Hadoop e l’arrivo di molti nuovi tools che rendono Hadoop
molto più user friendly. E questo sta inducendo molte aziende a
considerare di fare il processing ETL usando Hadoop. Questa
sessione parla dei casi d’uso e spiega come usare Hadoop
come Data Hub.
• Cosa è un Data Hub e perché averne uno?
• Cosa dovrebbe fare un Managed Data Hub?
• Quali sono le componenti di un Data Hub?
• Cosa è coinvolto nel processo di raffinamento dati?
• Tools e tecniche per raccogliere e catturare Big Data in un
Data Hub Hadoop
• Introdurre analitica nei workflows Hadoop ETL per automazione
• Creare e gestire sandboxes analitici nella raffineria Hadoop
di dati
• Data Governance in un managed Data Hub: auditing, sicurezza
e protezione dati in un ambiente Hadoop
• Mapping di nuove informazioni nel Vostro vocabolario condiviso
di business
• Integrare un managed Hadoop Data Hub nel Vostro ambiente
analitico
• Il Virtual Data Hub: molti spiegamenti Hadoop in un grid ad alte
prestazioni
TECHNOLOGY TRANSFER
Piazza Cavour, 3 - 00193 Roma
Tel. 06.6832227 - Fax 06.6871102
www.technologytransfer.it
[email protected]