CalendarioIl programma completo dei prossimi seminari InformazioniSede, prenotazione albergo, ecc.. IscrizioniLe informazioni per iscriversi ai seminari Per gli Speakers...Le informazioni per collaborare con noi Per i Vendors...Come farsi vedere dai nostri clienti

Machine Learning
for the Enterprise
International Conference


29-30 Ottobre, 2018

Residenza di Ripetta
Roma

BIG DATA
INTERNATIONAL CONFERENCE
2018


3-4 Dicembre, 2018

Residenza di Ripetta
Roma

 

Big Data International Conference 2018 - Technology Transfer

Big Data International Conference 2018

di Andy Petrella Gabriele Pellegrinetti Jesse Anderson Mike Ferguson

Dal 03 dicembre 18 al 04 dicembre 18
Costo: 1.500,00 Euro + IVA


Residenza di Ripetta
Via di Ripetta 231
00186 Roma (RM)

maggiori informazioni...

Segnala ad un amico
Scarica la brochure

Descrizione

Wikipedia definisce i Big Data come insiemi di dati così voluminosi e complessi che i tradizionali software applicativi per l'elaborazione dei dati sono inadeguati ad affrontarli. Questo include gli schemi fissi e variabili dei dati strutturati e non strutturati come testo, audio, immagini e video. Tutti questi tipi di dati inondano le aziende e cresce la richiesta di analizzarli. Inizialmente questi dati venivano immessi nei sistemi on-premises di Big Data, come Hadoop, negli ultimi dodici mesi abbiamo assistito a un grande movimento per catturare molti di questi dati nella memoria Cloud: la battaglia per Big Data Analytics si sta spostando su Cloud.

Oggi qualsiasi cosa, da Hadoop, Spark, NoSQL, databases, data warehouses, master data management e streaming data, è disponibile su Cloud. Inoltre sono disponibili anche strumenti di integrazione dei dati, cataloghi di informazioni e strumenti analitici e, mentre questa tendenza è destinata a continuare, la maggior parte delle aziende si trova in una situazione in cui i Big Data e l'elaborazione di Big Data sono in esecuzione in un ambiente di elaborazione ibrido con dati distribuiti su più Cloud e archivi dati locali.

Questo tipo di complessità sta a significare che i sistemi analitici (includendo piattaforme di Big Data) hanno bisogno di essere gestiti e accessibili attraverso i firewall e non solo on-premises. Data questa complessità, come si può ridurre il time to value in un ambiente di Big Data ibrido dove i vostri dati si trovano in multipli data stores on premises e in uno o più Cloud?

Anche i tools stanno cambiando per aiutarci a essere più produttivi. I tools di workflow ci permettono di costruire pipelines analitiche senza la necessità di scrivere codice.

I tools di automazione di Machine Learning sono oggi disponibili per accelerare lo sviluppo del modello e i modelli possono essere forniti come servizi in Containers così da poter girare in-Hadoop, in-Spark, in-Stream.

Ma con tutti questi tools e dati nel Cloud e on-premises come faremo a governare questo ambiente soprattutto oggi che la legislazione GDPR è attiva? Esiste qualcosa che ci può aiutare? Come possiamo sfruttare tutto questo per accelerare il time to value? Di quali skill chiave abbiamo bisogno?

In aggiunta, con l’arrivo di Internet of Things i dati ad alta velocità in streaming stanno crescendo rapidamente. Siete pronti per gli streaming data? Cosa dovreste fare per il real-time? Qual è la vostra strategia per IoT? Come impatteranno i fast data sulla vostra architettura e le vostre metodologie?

Questa Conferenza si propone di fornire un aggiornamento sui Big Data e mostrare gli ultimi progressi tecnologici. L'intenzione è quella di aiutarvi ad avere successo con i Big Data, integrare nuove tecnologie nel vostro ambiente esistente e ridurre il time-to-value.

SPONSORS

Argomenti Trattati

  • Accelerare il time to value in un ambiente ibrido di Big Data Computing
  • Organizzarsi per il successo: le cinque disfunzioni di un team di data engineering e come metterle a posto
  • La resurrezione dell’Information Catalog: trovare e organizzare i vostri dati e la vostra analitica in un ambiente ibrido di Big Data
  • Interactive Notebooks: cosa sono, perché ne avete bisogno e come dovreste usarli per analizzare i Big Data?
  • Governance e Compliance: ricette per una Data Science GDPR-friendly
  • Accelerare il time to value usando pipelines analitiche e SQL in un ambiente Big Data
  • Big Data: perché il real-time è importante e quale impatto avrà sulla vostra architettura Big Data?
  • Strategie dati in IoT: gestire la nuova frontiera nei Fast Data
  • Nuove tecniche analitiche: creare valore di business usando Graph Analytics e Visualization