L A T E C H N O L O G Y Roma, 4-5 Dicembre 2014 Residenza di Ripetta Via di Ripetta, 231 T R A N S F E R P R E S E N T A INTERNATIONAL SUMMIT 2 0 1 4 BIG DATA ANALYTICS D E S C r I z I o N Nel 2014 quasi tutte le aziende in Europa si sono concentrate su due cose. La prima è migliorare la conoscenza del cliente per mantenere e far crescere i propri clienti. La seconda è migliorare i propri processi riducendo i costi, aumentare l’efficienza e migliorare l’efficacia. Questo significa che le aziende vogliono analizzare nuove sorgenti dati, sia interne che esterne, che possono essere molto grandi in termini di volume, possono variare come tipologia dati ed essere generate a velocità molto elevate. C’è un requisito per capire il comportamento del cliente e l’interazione attraverso tutti i canali. I dati del clickstream in particolare cominciano ad essere molto richiesti dal momento in cui molte persone preferiscono l’on-line come modo preferito di fare transazioni di business. Capire il comportamento on-line è diventato per molte aziende un must. C’è anche la necessità di analizzare le interazioni e il sentimento sociale. Non c’è quindi da sorprendersi se Hadoop è diventato il centro di Big Data Analytics. Inoltre lo spostamento verso l’on-line e l’emergenza dei dati dei sensori ha creato una domanda di velocità nel catturare e manipolare dati non strutturati e questo ha determinato la crescita di popolarità dei DBMS NoSQL. Nuovi tipi di workloads analitici oggi girano su piattaforme esterne al Data Warehouse e vediamo concentrare l’attenzione su Hadoop Data Hubs, NoSQL databases, streaming analytics, in-memory file systems e in-memory processing, self-service data integration, exploratory analyisis, Serch, Machine learning, self-service BI e SQL su Hadoop. Ma come dare un senso a tutto questo? Come allinearli con le necessità di business? Quale dovrebbe essere una strategia Big Data? Come mettere insieme tutte queste cose e collocarle all’interno di una architettura? Come partire? Come fare il design di databases NoSQL? Dovreste scaricare i carichi di lavoro esistenti su Hadoop? Come organizzare Hadoop? Quali sono le Best Practices? Questo Summit è finalizzato a spiegare come usare i Big Data per ottenere un vantaggio competitivo. Esamina casi d’uso importanti di Big Data, Hadoop deep dive e Streaming Analytics, DBMSs NoSQL e il modo per integrare Hadoop all’interno della Vostra architettura analitica. Infine esamina il problema sempre crescente della Data Governance e del Data Management in un ambiente Big Data. E D E S C r I z I o Gli argomenti trattati includeranno: • Il valore di business dei Big Data: casi d’uso per le tecnologie Big Data • Integrare Big Data Analytics nel Vostro ambiente analitico esistente • Hadoop: Best Practices in implementazioni di successo • Usare Big Data Analytics e self-service BI per una nuova conoscenza del cliente • Data modeling per databases NoSQL • Analizzare i dati in movimento usando Apache Storm • Database SQL analitici per Big Data • Data Governance: costruire un Data Hub su Hadoop N E SPEAKERS Mike Ferguson È Managing Director Europeo di Intelligent Business Bernard Marr Mike Ferguson Rick Van Der Lans Strategies Limited. Come consulente è specializzato Vladimir Bacvanski in sistemi Database, Business Intelligence, Enterprise Application Integration, Corporate ed e-Business Portals, soluzioni intelligenti di CRM e di Supply operato consulenze per importanti aziende ed è stato frequentemente speaker in molti eventi e seminari in tutto il mondo. È stato Principal e cofondatore della Codd & Date UK e Chief Architect alla NCR sul DBMS Teradata. Bernard Marr È fondatore e CEO di Advanced Performance Institute. È autore di best sellers su problematiche di business, consulente in strategy management, performance management, analytics, KPIs e Big Data. Aiuta le aziende a gestire meglio, misurare e analizzare la performance dell’azienda. Ha lavorato con importanti organizzazioni ed enti governativi in tutto il mondo. Ha scritto numerosi libri e articoli tecnici su Enterprise Performance e Analytics. Ricordiamo i best sellers Key Performance Indicators, The Intelligent Company, More with Less, Managing and Delivering Performance e Strategic Performance Management. SCHEDA D’ISCRIZIONE Chain. Ha più di 30 anni di esperienza di IT, ha Da restituire compilata a: Technology Transfer Piazza Cavour, 3 - 00193 Roma Tel. 06-6832227 Fax 06-6871102 www.technologytransfer.it [email protected] Partecipanti Direttori IT, CIO, IT Managers, Architetti IT, Business Intelligence Managers, Professionisti di Data Warehousing, Data Scientists, Enterprise Architects, Data Architects Rick Van Der Lans È un consulente indipendente, autore e docente specializzato in Business Intelligence, Data Warehousing e SOA. È Managing Director di R20/Consultancy. È uno speaker molto apprezzato e di fama internazionale, negli ultimi dieci anni ha tenuto seminari in molti Paesi Europei, Sud America, QUOTA DI PARTECIPAZIONE Euro 1400 (+IVA) La quota di partecipazione comprende documentazione, colazioni di lavoro e coffee breaks. MODALITÀ DI ISCRIZIONE Il pagamento della quota, IVA inclusa, dovrà essere effettuato tramite bonifico, codice Iban: IT 03 W 06230 03202 000057031348 Banca: Cariparma Agenzia 1 di Roma intestato alla Technology Transfer S.r.l. e la ricevuta di versamento inviata insieme alla scheda di iscrizione a: TECHNOLOGY TRANSFER S.r.l. Piazza Cavour, 3 - 00193 ROMA (Tel. 06.6832227 - Fax 06. 6871102) CONDIZIONI GENERALI In caso di rinuncia con preavviso inferiore a 15 giorni verrà addebitato il 50% della quota di partecipazione, in caso di rinuncia con preavviso inferiore ad una settimana verrà addebitata l’intera quota. In caso di cancellazione del seminario, per qualsiasi causa, la responsabilità della Technology Transfer si intende limitata al rimborso delle quote di iscrizione già pervenute. SCONTI DI GRUPPO Se un’azienda iscrive allo stesso evento 5 partecipanti, pagherà solo 4 partecipazioni. Chi usufruisce di questa agevolazione non ha diritto ad altri sconti per lo stesso evento. ISCRIZIONI IN ANTICIPO I partecipanti che si iscriveranno al seminario 30 giorni prima avranno uno sconto del 5%. USA e Australia. È chairman del Database System Show (organizzato ogni anno in Olanda dal 1984) e cura una rubrica nelle due principali riviste specializzate del Benelux Computable e DataNews. È anche Advisor di riviste come Software Release Magazine e Database Magazine. Ha scritto numerosi libri tra cui citiamo Introduction to SQL e The SQL Guide to Oracle che sono stati tradotti in molte lingue e hanno venduto più di 100.000 copie. entro il 19 Novembre 2014 ROMA 4-5 Dicembre 2014 Residenza di Ripetta Via di Ripetta, 231 In caso di rinuncia o di cancellazione dei seminari valgono le condizioni generali riportate sopra. Quota di iscrizione Euro 1400 (+IVA) DURATA ED ORARIO 2 giorni: 9.30 - 13.00 14.00 - 17.00 International Summit 2014 Vladimir Bacvanski Nome Cognome Fondatore di SciSpike. È un consulente e mentore su Funzione aziendale software avanzato, tecnologie dati, specializzato in Azienda Partita IVA tecnologie NoSQL e Big Data. Ha più di 20 anni di Codice fiscale esperienza nelle aree di architettura e design di Indirizzo sistemi enterprise distribuiti e mission critical, sistemi CAP e lingiaggi rule-based, tools di modeling, sistemi Città Provincia real-time, agent systems e tecnologie database. Ha Telefono anche una notevole esperienza in software Fax architecture e analisi dei requisiti. E-mail Timbro e firma isto È prevvizio il ser zione u di tradltanea simu Tutela dati personali Ai sensi dell’art. 13 della legge n. 196/2003, il partecipante è informato che i suoi dati personali acquisiti tramite la scheda di partecipazione al seminario saranno trattati da Technology Transfer anche con l’ausilio di mezzi elettronici, con finalità riguardanti l’esecuzione degli obblighi derivati dalla Sua partecipazione al seminario, per finalità statistiche e per l’invio di materiale promozionale dell’attività di Technology Transfer. Il conferimento dei dati è facoltativo ma necessario per la partecipazione al seminario. Il titolare del trattamento dei dati è Technology Transfer, Piazza Cavour, 3 - 00193 roma, nei cui confronti il partecipante può esercitare i diritti di cui all’art. 13 della legge n. 196/2003. P R O G R A M M A Prima Giornata Sessione 1 Il valore di Business dei Big Data: casi d’uso per le tecnologie Big Data Bernard Marr Mentre il clamore sui Big Data sembra non avere mai fine, molte aziende stanno pianificando e implementando progetti sui Big Data. Per fare questo devono prima determinare come i Big Data e le tecnologie Analitiche possono essere usate per ottenere un vantaggio competitivo e poi mettere insieme una strategia per i Big Data. Questa sessione spiega come le aziende possono trarre valore dai Big Data e quali aspetti devono essere considerati per mettere a punto una strategia sui Big Data. • Capire il business case per i Big Data • I 10 modi più conosciuti su come i Big Data possono dare benefici alla Vostra azienda • Modi semplici di trovare e far leva su nuovi insiemi di dati • Molti esempi dal mondo reale di come aziende in diversi settori stanno usando i Big Data • Cinque semplici passi per creare una strategia sui Big Data per il Vostro business Sessione 2 Integrare Big Data Analytics nel Vostro ambiente analitico esistente Mike Ferguson Molte organizzazioni hanno fatto significativi investimenti nei tradizionali Data Warehouse e nella tecnologia di Business Intelligence, ma l’avvento dei Big Data e le nuove piattaforme tecnologiche hanno fatto capire alle aziende di dovere far convivere il tutto all’interno di una moderna architettura analitica. Questa sessione guarda al mondo tradizionale e ai Big Data e mostra come le tecnologie tradizionali di DW/BI possono essere messe insieme alle tecnologie Big Data per creare un ecosistema analitico integrato. • Architetture tradizionali di Data Warehouse • Nuovi dati, nuovi Big Data Analytics workloads • Perché è necessaria una nuova architettura per la multiplatform analytics • Le tecnologie che compongono un moderno ecosistema analitico • Rilasciare analitica negli ambienti tradizionali e Big Data • Accedere ai Big Data usando tools esistenti di BI e SQL su Hadoop • Data Management negli ambienti tradizionali e Big Data • Trattare con l’acquisizione ad alti volumi di dati e ad alta velocità • Il modello operativo organizzativo per il moderno ecosistema analitico Sessione 3 Hadoop: Best Practices in implementazioni di successo Vladamir Bacvanski Le parole chiave di un moderno IT sono Big Data e Hadoop. Negli anni passati la capacità di processare grandi volumi di dati era appena sufficiente e all’inizio sono stati commessi molti errori. Oggi, dal momento che Hadoop è più maturo, ci aspettiamo un uso più sofisticato. In questa sessione verranno indirizzati i casi applicativi per Hadoop e i suoi elementi chiave. Verrà comparato il classico Hadoop con Hadoop 2.0 e YARN, la nuova architettura per Hadoop e verrà presentato il path di migrazione. Hadoop può essere programmato in molti modi usando Java, Pig, Hive, Scala (Scalding). Verranno esaminate le migliori applicazioni per ciascuna di queste tecnologie. Si parlerà anche di integrazione con i vecchi sistemi e di governance che sono aspetti critici per il successo di Hadoop. Infine si parlerà della crescita dell’ecosistema Hadoop e dei sistemi come Storm e Spark. • Casi applicativi per Hadoop • Una veloce panoramica di data processing con Hadoop • Hadoop 2.0, YARN e path di migrazione • Scegliere il giusto modello di programmazione: Java, Pig, Hive Scala e Scalding • Integrazione con i sistemi convenzionali: Hadoop per ETL • Governance • Ottenere successi veloci • Espandere l’orizzonte con Apache Storm e Spark Sessione 4 Seconda Giornata Usare Big Data Analytics e self-service BI per una nuova conoscenza del cliente Bernard Marr Sessione 5 Data Modeling per Databases NoSQL Per molte aziende oggi il focus sul cliente è una top priority. Conoscere meglio il cliente è una necessità per mantenere i clienti esistenti, per aumentare il loro valore, per acquisirne di nuovi e non lasciare scoperti nuovi mercati e opportunità. In particolare fare business on line sul Web impone di conoscere meglio il comportamento del cliente e migliorare la customer experience management e la customer satisfaction. Questa sessione spiega come le aziende possono far leva su Big Data Analytics e self-service BI per migliorare la completa conoscenza del cliente e ottenere un vantaggio competitivo. • Capire come i Big Data possono aumentare la conoscenza del cliente • Avere una nuova visione a 360° dei Vostri clienti • Usare Big Data Analytics per centrare gli obiettivi con i Vostri clienti • Migliorare il Vostro decision-making ad ogni contatto con il Vostro cliente • Molti esempi dal mondo reale di come le aziende stanno usando Big Data Analytics e Self-Service BI Rick van der Lans Molti sistemi Big Data sono sviluppati usando prodotti NoSQL come MongoDB, HBase, MapR e Cassandra. Questi prodotti sono stati progettati per memorizzare e processare una enorme quantità di dati, permettendo di sviluppare sistemi che fino a pochi anni fa sembravano impensabili. Come dice il nome, questi prodotti non si basano su SQL né sui sistemi relazionali, non operano con tabelle e righe ma supportano strutture gerarchiche, repeating groups, famiglie di colonne, insiemi, liste, e così via. E, come potete immaginare, tutto questo ha un forte impatto sul Data Modeling. Questa sessione parla dei cambiamenti nel Data Modeling quando la tecnologia di memorizzazione dei dati è un sistema NoSQL. • Panoramica su key-value, document, column-family e graph data stores • Spiegazione dei concetti non relazionali, come column-families, gerarchie, insiemi e liste • La memorizzazione di dati non strutturati o semi strutturati è veramente più flessibile? • Le differenze fra schema-on-read e schema on-write • Regole per trasformare i modelli classici di dati a concetti NoSQL Sessione 6 Analizzare i dati in movimento usando Apache Storm Vladimir Bacvanski La velocità è uno degli aspetti chiave dei Big Data e non è gestita dai tradizionali sistemi Hadoop. Apache Storm, sviluppato originariamente da Twitter per analizzare i tweets in real-time, è diventato un sistema dominante per la nuova architettura Hadoop YARN. In questa sessione si parlerà di stream analytics, il modello architetturale e di programmazione di Storm e il modo di trovare soluzioni scalabili fault tolerant. La sessione si conclude parlando di Architettura Lambda, che combina i Big Data con stream processing real-time. • Dati in movimento e processing real-time: casi d’uso • Data Processing di Storm e Hadoop • Architettura di Storm • Topologie di processing, streams, spouts e bolts • Ottenere alta performance, parallelismo e scalabilità • Ottenere fault tolerant: cluster setup • Scrivere applicazioni Storm • Architettura Lambda • Best Practices di applicaziioni Storm Sessione 7 I Big Data sono solo un grande annuncio o offrono veramente dei vantaggi reali di Business? Panel con Vendors e Speakers Sessione 8 Databases analitici SQL per Big Data Rick van der Lans Ma i sistemi NoSQL non sono la sola alternativa. Le aziende possono anche optare per database servers analitici SQL specializzati. Prodotti che ricordano i classici database servers SQL ma che sono stati ottimizzati internamente per analitica complessa e reporting su grandi volumi di dati. I vantaggi di questa tecnologia sono produttività, familiarità e accessibilità da molti tools di reporting e di analitica. Questa sessione presenta una panoramica del mercato dei databases servers analitici SQL e risponde a domande, ad esempio: quali tecniche usano internamente per aumentare la performance della query? Come integrarli con Hadoop? Perché il mercato europeo è così lento nell’adottare questa tecnologia? Come fare la comparazione con Hadoop e NoSQL? • Panoramica di mercato includendo Actian Matrix and Vector, Exasol, HP Vertica, IBM PureData System for Analytics, Kognitio, Microsoft Analytics Platform System, Pivotal Greenplum, SAP HANA and SAP IQ, Teradata Appliance and Teradata Aster Database • Gli engines SQL-on-Hadoop possono essere qualificati come database servers analitici SQL? • Memorizzare e accedere dati SQL in Hadoop • L’importanza della produttività e dell’agilità Sessione 9 Data Governance: costruire un Data Hub su Hadoop Mike Ferguson Molte aziende che hanno adottato precocemente Hadoop si sono dovute confrontare con la necessità di reperire gli skills necessari per lavorare in questo ambiente. I Data Scientists non solo hanno bisogno di skills in statistica e matematica ma anche nella programmazione Java e MapReduce APIs. Ma negli ultimi 18 mesi abbiamo visto molti miglioramenti sulla piattaforma Hadoop e l’arrivo di molti nuovi tools che rendono Hadoop molto più user friendly. E questo sta inducendo molte aziende a considerare di fare il processing ETL usando Hadoop. Questa sessione parla dei casi d’uso e spiega come usare Hadoop come Data Hub. • Cosa è un Data Hub e perché averne uno? • Cosa dovrebbe fare un Managed Data Hub? • Quali sono le componenti di un Data Hub? • Cosa è coinvolto nel processo di raffinamento dati? • Tools e tecniche per raccogliere e catturare Big Data in un Data Hub Hadoop • Introdurre analitica nei workflows Hadoop ETL per automazione • Creare e gestire sandboxes analitici nella raffineria Hadoop di dati • Data Governance in un managed Data Hub: auditing, sicurezza e protezione dati in un ambiente Hadoop • Mapping di nuove informazioni nel Vostro vocabolario condiviso di business • Integrare un managed Hadoop Data Hub nel Vostro ambiente analitico • Il Virtual Data Hub: molti spiegamenti Hadoop in un grid ad alte prestazioni TECHNOLOGY TRANSFER Piazza Cavour, 3 - 00193 Roma Tel. 06.6832227 - Fax 06.6871102 www.technologytransfer.it [email protected]
© Copyright 2024 ExpyDoc