TRIVADIS AUF MESSEN UND KONGRESSEN

TRIVADIS AUF MESSEN UND KONGRESSEN

IT-Tage 2020 - Remote

Die IT-Tage 2020 finden vom 07. bis 10. Dezember 2020 remote statt. Sie gilt als die Konferenz für Softwareentwicklung,
Architektur, Datenbanken und Management. Bei den IT-Tagen findest Du genau die Vorträge, die zu Deinen beruflichen Herausforderungen passen. Trivadis ist auch in diesem Jahr mit zahlreichen Vorträgen vertreten. Und da wir unser Wissen mit Dir teilen möchten, freuen wir uns schon sehr, Dich bei den IT-Tagen 2020 kennenzulernen.

Besuche gerne unsere Sessions auf den IT-Tagen 2020

08. Dezember 2020

Die Rolle des Event Hubs (i.e. Kafka) in einer modernen Daten-Architektur (Guido Schmutz)

11:00 Uhr bis 11:45 Uhr:

"Welche Vorteile bietet der Einsatz eines Event Hubs in einer modernen Daten-Architektur? Was genau ist ein Event Hub und welche Eigenschaften sollte er bieten? Warum ist Apache Kafka die zurzeit populärste Umsetzung eines Event Hub?
Diese und andere Fragen werden durch diese Präsentation beantwortet. Der Vortrag beginnt mit einer hersteller-neutralen Definition eines Event Hubs. Danach werden die verschiedenen Architektur-Styles beleuchtet, die durch den Einsatz eine Event Hubs unterstützt werden können, wie z.B. Stream Data Integration, Stream Analytics und entkoppelte, ereignisgetriebenen Applikationen bzw. Microservices und wie diese in eine ganzheitliche Architektur kombiniert werden können.
Der Vortrag endet mit einer Betrachtung von Apache Kafka und zeigt die Nutzung der verschiedenen Kafka-Komponenten in der modernen Datenarchitektur."

Kafka-Livedemo: Umsetzung einer Streaminglösung in 45 Minuten (Guido Schmutz)

12:00 Uhr bis 12:45 Uhr:

"Auf Basis eines End-to-End-Beispiels soll der Einsatz von Kafka und Werkzeugen rund um Kafka demonstriert und den Teilnehmern gezeigt werden, wie einfach sich Streaminglösungen umsetzen lassen, ohne zwingend viel Code schreiben zu müssen.
Daten werden von fiktiven IoT-Sensoren generiert, die über MQTT in Kafka eingebunden werden. Dabei werden Kafka Connect und StreamSets Data Collector im Einsatz gezeigt. Danach werden die Daten innerhalb von Kafka mit KSQL und Kafka Streams analysiert und Resultate in Echtzeit visualisiert. Dabei werden die IoT-Daten mit statischen Daten aus Stammdatensystemen erweitert. Auf mögliche Datenformate der Nachrichten wie JSON und AVRO wird ebenfalls eingegangen.
Das Ganze ist eine Livedemo ohne Folien. Die einzige Ausnahme ist eine Slide mit der Architektur der Lösung, die Schritt für Schritt mit den entsprechenden Werkzeugen ergänzt wird, sodass der Teilnehmer nie die Übersicht verliert."

10 ETL-Performance-Tipps für zu kurze Nächte (Dani Schnider)

12:00 Uhr bis 12:45 Uhr:

"Beim Laden von großen Datenmengen in ein Data Warehouse gelten andere Regeln für die Performanceoptimierung als beispielsweise bei Abfragen in einem OLTP-System. Deshalb ist es wichtig zu verstehen, wie ETL-Prozesse implementiert werden müssen, damit sie in der erforderlichen Zeit ausgeführt werden können. Wenn "die Nacht zu kurz" ist, um alle ETL-Jobs durchzuführen, ist Handlungsbedarf notwendig.
Der Vortrag zeigt anhand verschiedener Praxisbeispiele Maßnahmen und Tipps, mit denen ETL-Jobs effizient geschrieben und langlaufende Prozesse verbessert werden können. Dabei geht es hauptsächlich darum, wie ETL-Mappings, SQL-Befehle oder PL/SQL-Packages geschrieben werden, damit sie effizient ausgeführt werden können. Aber auch Themen wie Datenbankkonfiguration, Indexierung und Optimizer-Statistiken sind Voraussetzung für effiziente ETL-Prozesse. Nur wenn alles aufeinander abgestimmt ist, stehen die geladenen Daten rechtzeitig für Abfragen im Data Warehouse bereit. Die in der Präsentation gegebenen Tipps sollen helfen, damit die Nacht nicht zu kurz ist."

Resilient Software Design Patterns (Thorsten Maier)

15:00 Uhr bis 15:45 Uhr:

"Die Zeiten in denen eine Anwendung aus einem einzelnen großen Artefakt besteht, scheinen vorbei zu sein. Unter anderem im Zuge der verstärkten Containerisierung mit Docker & Co wird es immer beliebter, Anwendungen aus mehreren möglichst unabhängigen Artefakten zusammenzustellen, die über Prozessgrenzen miteinander kommunizieren. Diese Architektur ermöglicht eine schnellere Weiterentwicklung und eine elastische Anpassung an wechselnde Lastanforderungen. Falls nun eine Vielzahl an kleineren Anwendungen eine gemeinsame Aufgabe erfüllen sollen, wird ein fehlerfreies Gesamtsystem allerdings zunehmend unwahrscheinlicher.
Beim Resilient Software Design versuchen wir daher nicht mehr die Fehler zu vermeiden, sondern nehmen sie stattdessen als unvermeidbaren Teil der Software hin. Wir konzentrieren unsere Entwicklungsbemühungen auf eine möglichst schnelle und automatisierte Fehlerbehebung, um das Gesamtsystem somit widerstandsfähiger gegenüber Fehlern zu machen.
Die Session stellt die Grundkonzepte von Resilient Software Design vor und zeigt die praktische Umsetzung dieser Konzepte mit Techniken aus der Spring-Welt."

09. Dezember 2020

AWS RDS – Was fehlt zum vollständig gemanagten Service? (Daniel Hillinger)

12:00 Uhr bis 12:45 Uhr:

"Mit dem Relationalen Datenbank Service (RDS) bietet Amazon Web Services (AWS) einen Managed Service für viele Datenbank-Produkte (z.B. Oracle, Postges und MYSQL) an. Dabei übernimmt AWS bereits viele der DBA-Standardtätigkeiten und hat diese automatisiert. Doch was fehlt damit du dich wirklich um nichts mehr kümmern muss? Welche Themen werden vollständig gemanagt und wo musst du selbst aktiv an Lösungen arbeiten?
In einer Welt wo ein automatisches Backup nur noch ein Häkchen in einer Weboberfläche ist, lohnt sich ein genauerer Blick."

Smart Data Analytics – Einsatz von KI und Graphen für Vertrieb und Marketing (Dr. Martin Zablocki)

13:00 Uhr bis 13:45 Uhr:

"In diesem Vortrag stellen wir vor, wie eine intelligente Vernetzung von Information aus strukturierten und unstrukturierten Daten wertvolle Analysen für Vertrieb und Marketing ermöglicht. Den Datenkern bilden hierfür Knowledge-Graphen, die mittels moderner Maschine-Learning-Verfahren smarte Verknüpfungen zwischen Kundenbedürfnissen und den eigenen Produkten bzw. Dienstleistungen erkennen.
Der Informationsgehalt dieser smarten 360°-Knowledge-Graphen wird durch eine event-basierte Daten-Plattform kontinuierlich mit neuen Daten angereichert. Der Nutzen dieser smarten Datengrundlage für Analysen im Vertrieb und Marketing reicht von qualifizierteren, priorisierten Leads bis hin zur bedarfsorientierten Weiterentwicklung der eigenen Produkte sowie tagesaktueller Marktanalysen."

WebAssembly – ein sinnvolles Comeback für Java im Browser? (Christian Dedek)

14:00 Uhr bis 14:45 Uhr:

"WebAssembly ist ein neues portables binäres laufzeit- und größenoptimiertes Low-Level-Codeformat, das, obwohl der W3C-Standard noch ein Minimal Viable Product ist, schon heute von allen gängigen Browsern nativ unterstützt wird. Im Gegensatz zu JavaScript ist es bereits jetzt deutlich schneller.
Ein interessanter Aspekt des Binärformats ist es, dass sich Hochsprachen wie Java oder C/C# nach WebAssembly kompilieren lassen, um direkt im Browser ausgeführt zu werden. Das bedeutet, dass zum Entwickeln von Webapplikationen nicht ausschließlich JavaScript zum Einsatz kommen muss, sondern stattdessen in Java oder C/C# entwickelt werden kann. Damit können erprobte Entwicklungsumgebungen und Bibliotheken für die Webentwicklung hinzugewonnen werden. WebAssembly könnte somit in den nächsten Jahren eine gewisse "Revolution" für das Web bedeuten.
In dieser Session lernen Sie die Grundlagen von WebAssembly kennen und wie Sie schon heute Webapplikationen mit Java und JWebAssembly bzw. TeaVM basierend auf dem WebAssembly-Format entwickeln können."

Cloud-Chaos und Schatten-IT aufräumen. Cloud-Umgebungen per Mausklick – dank Self-Service (Jens Bertenbreiter)

14:00 Uhr bis 14:45 Uhr:

"Formular ausfüllen, unterschreiben lassen, weiterleiten, warten … Entwicklungs- und Fachabteilungen kennen das Prozedere rund um die Beantragung von IT-Ressourcen nur zu gut. Bis dato war dies in den meisten Fällen ein manueller und langwieriger Prozess, verbunden mit hohem bürokratischem Aufwand. So vergingen nicht selten Tage bis Wochen, bis eine IT-Ressource endlich zur Verfügung stand. In den letzten Jahren haben Entwicklungs- und Fachabteilungen deshalb oft selbst Initiative ergriffen und Cloud-Services wild drauflos bezogen – und damit eine Schatten-Cloud entstehen lassen, die sich jeglicher Übersicht entzieht. Dem können Sie vorbeugen und dabei gleichzeitig die Effizienz erhöhen."

mlflow für den gesamten Machine-Learning-Lebenszyklus (Dr. Parinaz Ameri)

17:00 Uhr bis 17:45 Uhr:

"Im Gegensatz zur traditionellen Welt der Softwareentwicklung ist die Entwicklung einer Machine-Learning-Lösung nicht nur von der Qualität des Codes abhängig und nicht auf die Erfüllung bestimmter funktionaler Spezifikationen beschränkt. Das Ziel in Machine-Learning-Projekten ist es, eine Reihe von Metriken, z. B. die Genauigkeit, über mehrere Iterationen zu optimieren. Um dieses Ziel zu erreichen, ist ein ständiges Experimentieren und die Wiederholung von Schritten zur Datenaufbereitung und Parameterabstimmung erforderlich, um die Metrik zu verbessern. Dieser Prozess beinhaltet das Auswählen und Kombinieren verschiedener Bibliotheken und Modelle sowie die Verwendung verschiedener Einsatzumgebungen. Als Open-Source-Plattform für maschinelles Lernen zur Verwaltung des gesamten Lebenszyklus von maschinellen Lernprojekten gewinnt mlflow aus guten Gründen enorm an Popularität.
Dieser Vortrag konzentriert sich auf die von mlflow bereitgestellten Methoden zur Wiederverwendbarkeit von Code-Artefakten und Projekten, zur Verfolgung von Konfigurationen und Parametern sowie auf die Benutzeroberfläche zur Vereinfachung des Vergleichsprozesses verschiedener Modelle und ihren zugehörigen Metriken."

10. Dezember 2020

Code-Qualität in der Praxis (Thorsten Maier)

10:00 Uhr bis 10:45 Uhr:

"Nach dem ersten Release geht der Kampf gegen den langsamen Verfall einer Code-Basis erst los.
Die Session zeigt anhand von praktischen Beispielen, wie man durch die kontinuierliche Verbesserung der Code-Qualität der normalerweise stattfindenden Degeneration entgegenwirken kann. Die Basis bildet eine entwicklerfreundliche Architektur-Dokumentation mit einem schlanken Markdown-Template. Der effektive Einsatz von Code-Reviews, die automatische Überprüfung von Architekturvorgaben mittels statischer Codeanalyse mit jQAssistant und die toolgestützte kontinuierliche Verbesserung ausgewählter Code-Metriken mit git-ratchet sind nur einige weitere Maßnahmen auf dem Weg zu dauerhaft wartbarem Code."

Oracle Security: Von Was hättet ihr denn gerne? zu Was braucht ihr wirklich? (Markus Flechtner)

11:00 Uhr bis 11:45 Uhr:

"Welcher DBA kennt das nicht: einer der ersten SQL-Befehle bei der Installation der Software eines Drittherstellers lautet "GRANT DBA TO .."? Auch die Entwickler aus der eigenen Entwicklungsabteilung wissen nicht, welche Rechte sie in der Datenbank brauchen – und verlangen erst einmal pauschal DBA-Rechte in der Entwicklungsumgebung. Und dann kommt der Sicherheitsbeauftragte an und sagt "jeder darf nur die Rechte bekommen, die er wirklich braucht" – das Least-Privilege-Prinzip ist gefordert.
Aber wie kann man das herausfinden? Seit der Datenbank-Version 12c bietet Oracle dafür das Feature "Privilege Analysis" an. Leider war die Nutzung dieser Funktion ursprünglich an die Database-Vault-Lizenz gekoppelt – und somit für die meisten DBAs nicht (legal) einsetzbar. Diese Einschränkung ist seit November 2018 weggefallen: alle Kunden mit Enterprise-Edition dürfen das Feature nutzen. Grund genug, sich in dem Vortrag diese Funktionalität genauer anzuschauen: Wie kann der DBA feststellen, welche Rechte die Applikationen und Benutzer wirklich brauchen und darauf ein passendes Rechtekonzept aufsetzen?"

Data Driven Innovation – Eine Erfolgsgeschichte aus der Welt der digitalen Medien (Eberhard Lösch)

13:00 Uhr bis 13:45 Uhr:

"Daten werden oft als der wertvollste Rohstoff des 21. Jahrhunderts bezeichnet. Doch wie können Unternehmen oder Organisationen das für sich konkret und schnell zu Nutze machen? Und wie lassen sich hierzu innovative Ideen finden und einfach umsetzen? Besonders erfolgreiche Unternehmen machen es uns bereits vor und schöpfen einen wesentlichen Anteil ihres Wettbewerbsvorteils aus der gezielten Nutzung von Daten.
Anhand eines reellen Projektes erfahren Sie, wie für die Fachbereiche eines Unternehmens im Bereich Digitale Medien eine Lösung auf Basis innovativer Datennutzung entwickelt und umgesetzt wurde. Dabei wird ein Einblick in den Prozess gegeben wie und auf welcher Basis innovative Ideen entwickelt wurden. Sie lernen die Finessen kennen, welche im Laufe des Projektes gemeistert wurden. Abschließend erhalten Sie einen Einblick in die technischen, fachlichen und kulturellen Erfolgsfaktoren dieses Innovations-Projektes."

Atlassian DevOps-Tools @Azure Cloud (Christian Dedek, Patrick Rudloff)

15:00 Uhr bis 15:45 Uhr:

"Atlassian-Devops-Tools wie Jira, Confluence oder Bitbucket in der Microsoft Azure Cloud betreiben? Mit Atlassian Cloud und AWS gibt es bereits etablierte Atlassian- Cloud-Angebote und Microsoft bietet eigene DevOps-Tools in der Azure Cloud an.
Der Vortrag diskutiert mögliche Gründe für Atlassian-Tools in der Azure Cloud als Alternative und berücksichtigt dabei im Speziellen die unterschiedlichen Optionen des Betriebs in Azure und damit eventuell verbundene wirtschaftliche Potentiale. Ausgehend von den im Azure Store vorhandenen Atlassian Installationsoptionen werden einige aktuell schnell realisierbare Einstiegsszenarien aufgezeigt, um anschließend eine kleine Auswahl von Problemstellungen und Lösungsoptionen aus der Betriebspraxis zu betrachten. Eine kurze Live-Demo soll den Einstieg in Thematik erleichtern."

Prinzipien der Softwarearchitektur – modern und trotzdem zeitlos (Thorsten Maier)

17:00 Uhr bis 17:45 Uhr:

"Themen wie Cloud, DevOps, Kubernetes, Serverless & Co werden für viele zum Alltag. Die Fülle der Begriffe und neuen Technologien bringt Architekten und Entwickler aber regelmäßig ins Schwitzen, wenn es um eine fundierte Auswahl geht. Warum müssen wir uns überhaupt mit diesen Themen beschäftigen?
Die künftige Vision vieler Unternehmen ist die flexible Verarbeitung einer Flut von Daten sowie anschließend die gewinnbringende Nutzung der daraus extrahierten Informationen in allen Teilen des Unternehmens. Die Datenmengen wachsen stetig, daher ist Skalierbarkeit mittlerweile eine wichtige Anforderung. Eine Cloud Native Anwendung kann sich automatisch an sich ständig ändernde Lastanforderungen anpassen. Dafür ist aber eine hochintegrierte Zusammenarbeit zwischen Business, Entwicklung und Betrieb notwendig, um möglichst schnell auf ein sich änderndes Marktumfeld reagieren zu können.
Lassen Sie sich überraschen, wie einfach Entscheidungen allein auf Basis bewährter Prinzipien der Softwarearchitektur getroffen werden können. Von einigen sollten wir dabei getrost Abschied nehmen, Wiederverwendung und Technologieunabhängigkeit haben schon früher mehr Probleme gemacht, als Nutzen gebracht. Aus organisatorischen Gründen hat zudem die Redundanzfreiheit eine niedrigere Priorität bekommen. Die Session zeigt, auf welche Prinzipien und sogar Gesetze wir trotz der steigenden Komplexität heutiger Softwaresysteme zurückgreifen können."

ANSPRECHPARTNER

Silke Leisner_225x225

SILKE LEISNER
Trivadis Holding AG
Project Leader Eventmarketing D-A-CH

Telefon: +41 58 459 57 22
E-Mail: silke.leisner@trivadis.com

ap_stephan-göpel_1x

STEPHAN GÖPEL
Trivadis Germany GmbH
Project Manager Eventmarketing D-A-CH

Telefon: +49 40 334 68 200
E-Mail: stephan.goepel@trivadis.com

Bleib neugierig
Neben dieser Veranstaltung teilen wir unser Wissen auch an einer grossen Anzahl von weiteren Live und Online Events.
Eine Übersicht aller Veranstaltungen von oder mit Trivadis
findest du hier.
Bleib informiert
Neugierig, was wir mit intelligenter IT für dich erreichen können?
Melde dich für unseren Newsletter an.