Die DOAG Konferenz + Ausstellung findet vom 17. bis 19. November 2020 erstmals ONLINE statt. Trivadis ist natürlich auch in diesem Jahr dabei - im virtuellen EXPO-Bereich.
Auf der DOAG Konferenz + Ausstellung findest du genau die Vorträge, die zu deinen beruflichen Herausforderungen passen und du kannst dich direkt mit unseren zahlreichen Speaker*innen und Expert*innen austauschen. Auch Trivadis ist in diesem Jahr wieder mit 18 Vorträgen vertreten - Liste siehe unten - denn wir wollen unser Wissen mit dir persönlich teilen und freuen uns bereits jetzt darauf, dich online bei der DOAG Konferenz + Ausstellung 2020 zu treffen.
Und hier noch ein paar Empfehlungen für dich:
11:00 - 11:45 Uhr:
"Die Corona-Krise hat das ermöglicht, was in vielen Firmen bisher kaum denkbar war: Arbeiten zu Hause. Für viele Arbeitnehmerinnen und Arbeitnehmer ist dies eine neue Erfahrung – mit allen Vor- und Nachteilen. Für andere ist „Homeoffice“ seit Jahren eine übliche Arbeitsform. Ich gehöre zur zweiten Gruppe, bisher jedoch nicht so konsequent wie in den vergangenen Monaten.
Im Gegensatz zu anderen Berufsgruppen bietet unser Job ideale Voraussetzungen für Remote-Arbeit. Doch wollen wir das? Und wenn ja, für welche Tätigkeiten? Nach zahlreichen Skype-, Zoom-, Teams- und WebEx-Sessions, Remote-Reviews, Video-Sitzungen, Online-Konferenzen und virtuellen Kaffeepausen versuche ich in diesem Vortrag, einen Überblick über die Vor- und Nachteile von Homeoffice aufzuzeigen. Vielleicht lohnt es sich, diese Arbeitsform auch in Zukunft, wenn wir uns wieder frei bewegen können, beizubehalten – zumindest für einen Teil unseres beruflichen Alltags."
12:00 - 12:45 Uhr:
"ksqlDB ist eine Stream-Processing Engine, die auf Kafka Streams aufsetzt und die Möglichkeit bietet, Nachrichten aus Kafka zu konsumieren, diese in Echtzeit mittels SQL-ähnlicher Semantik zu verarbeiten und zu analysieren, und die Ergebnisse wiederum in ein Topic in Kafka zu produzieren. Dabei muss anderes als bei Kafka Streams, keine Zeile Programmcode geschrieben werden. Dies macht den Einstieg in die Welt von Ereignisverarbeitung sehr viel einfacher.
KSQL bietet dabei leistungsfähige Funktionen für die Ereignisverarbeitung wie Joins, Aggregationen und Zeitfenster über eine SQL-ähnliche Sprache. Dieser Vortrag bietet einen Einstieg in KSQL, zeigt wie sich KSQL ins Kafka Ökosystem integriert und wie einfach die Nutzung von KSQL ist. Das ganze wird mehreren Live Demos untermauert."
15:00 - 15:45 Uhr:
"Die Nutzung einer Public Cloud ist sehr einfach, Kreditkarte hinterlegen und starten. Damit können schon die ersten Mehrwerte für Ihr Business erreicht werden.
Bis zu einer Enterprise fähigen Nutzung ist es aber noch ein weiter Weg. Themen wie Security, Governance, Monitoring, Billing und Automatisierung sind nur einige Voraussetzungen. Nur wenn diese richtig implementiert sind werden die Fachbereiche enabled die Features der Public Cloud Anbieter vollumfänglich nutzen zu können.
In diesem Vortrag werden anhand einer strukturierten Vorgehensweise die zu bearbeitenden Themenblöcke aufgezeigt. Dabei werden Tipps und Tricks aus der Praxis mit dargestellt."
17:00 - 17:45 Uhr:
"Wie mache ich meinen SQL & PL/SQL Code schön und lesbar?
Ganz einfach. Mit Hilfe von Farben, ein paar Zeilenumbrüchen und Leerzeichen an den richtigen Stellen. Vielleicht auch gezielter Einsatz von Gross- und Kleinschreibung. Aber nur dann, wenn gewisse SQL Features nicht genutzt werden.
Der SQL Developer kennt einige Standard-Einstellungen, um den Code einzufärben sowie zu formatieren. Allerdings werden den künstlerischen Freiheiten klare Grenzen gesetzt. Und wenn es um Schönheit geht, dann scheiden sich die Geister. Und das ist beim Code nicht anders.
Der SQL Developer bietet glücklicherweise seit der Version 19.2 weitere Möglichkeiten an, um Code ganz nach den persönlichen Wünschen automatisiert zu verschönern. Mit Hilfe von Arbori – eine Abfragesprache für Parse-Trees. Wie das geht und welche Rolle JavaScript und SQLcl dabei spielt, zeige ich an paar einfachen, praxisnahen Beispielen in meinem Vortrag."
17:00 - 17:45 Uhr:
"Dass die Migration vom Oracle Warehouse Builder (OWB) auf den Oracle Data Integrator (ODI) weitgehend automatisiert werden kann, ist bekannt. Dass eine solche Migration aber auch generell zwischen ETL Werkzeugen möglich ist, zeigen wir anhand realer Anwendungsfälle rund um Oracle Datawarehouses. Während der Präsentation migrieren wir dabei live mehrere tausend ETL Jobs (nicht zu ODI), erläutern anhand von Stichproben Problemstellungen und mögliche Lösungen im Detail, besprechen passende Teststrategien, erklären, wie eine solche Migration gleichzeitig für Refactoring und zur Prozesskonsolidierung genutzt werden kann und zeigen, wie und warum dadurch auch ein Wechsel der Datenbank einfacher wird."
10:00 - 10:45 Uhr:
"Das Konzept des 'Data Lake' ist heute in aller Munde. Die Idee, alle Daten, die im Unternehmen anfallen an einer zentralen Stelle abzuspeichern und verfügbar zu machen klingt fürs Erste natürlich sehr interessant. Der Data Lake kann sich jedoch schnell vom klaren, schönen Bergsee in einen riesigen Tümpel verwandeln, insbesondere dann, wenn man ihm unbedarft sämtliche Quellen-Datenformate anvertraut, die heute in den Unternehmen gängig sind, wie z.B. XML, JSON, CSV oder unstrukturierte Textdaten. Wer hat hier nach geraumer Zeit noch die Übersicht, welche Daten, welches Format haben und wie sich diese über verschiedenen Versionen weiterentwickelt haben? Jeder der sich aus dem Data Lake bedienen will, muss sich immer wieder die selben Fragen stellen: welche Informationen werden zur Verfügung gestellt, welche Datentypen haben sie und wie hat sich der Inhalt über die Zeit verändert?
Abhilfe schaffen können Datenserialisierungs-Frameworks wie z.B. Apache Avro und Google Protocol Buffer (Protobuf), die eine plattform-unabhängige Datenmodellierung und Datenspeicherung ermöglichen. Dieser Vortrag geht auf die Möglichkeiten von Avro und Protobuf ein und zeigt, wie man diese im Kontext eines Data Lakes einsetzen kann und welche Vorteile man damit erzielen kann. Die Unterstützung on Avro und Protobuf durch Big Data und Fast Data Plattformen ist dabei ebenfalls ein Thema."
11:00 - 11:45 Uhr:
"Wir alle wissen, dass das Testen ein zentraler Bestandteil der IT Entwicklung ist. Leider wird es in den meisten Projekt immer noch sehr stiefmütterlich, wenn überhaupt, behandelt.
Dies wirkt sich in der neuen agilen Welt umso schlimmer aus! Alle 2-4 Wochen ein Release, je nach Sprint-Länge. Das funktioniert ohne automatisiertes Testen nicht. Schlimmer, es führt direkt ins Verderben. Der Referent zeigt in einem ersten Teil, anhand mehrer Projekte auf, was schiefgehen könnte. Im zweiten Teil erklärt er, wie man es richtig macht. Auch dies an zwei konkreten Projekten."
11:00 - 11:45 Uhr:
"Der Fragestellung, mit welcher man in Multi Datalake / Data Source Umgebungen früher oder später konfrontiert wird, ist wie Daten an einer zentralen Stelle nutzbar gemacht werden können.
Dieser zentrale Zugriffs-Layer soll für Applikationen sowie für Visualisierung (z.B Apache Superset oder PowerBI) genutzt werden können. Dabei soll es keine Rolle spielen ob man beispielsweise auf ein Parquet File auf S3 oder eine Datenbank Tabelle zugreift.
In dieser Session zeige ich, wie man mit Data Lake Engines wie Apache Drill und Dremio einen zentralen Zugriffs-Layer aufbauen kann, welcher die Kombination unterschiedlicher Quellen über ein SQL-Interface möglich macht.
Welche unterschiedlichen Quellsysteme werden unterstützt? Welche Daten Typen kann ich nutzen? Wie kann ich die zur Verfügung stehende Daten unabhängig von deren Source joinen? Diese und weitere Fragen werde ich in dieser Präsentation behandeln.
Anhand einer Live Demo werde ich auf die Möglichkeiten in Dremio eingehen, die den Business / Daten Analysten unterstützen, seine Daten aufzubereiten, anzureichern und im Anschluss als Dashboard darzustellen."
11:00 - 11:45 Uhr
12:00 - 12:45 Uhr:
"Data Lakes sind in aller Munde. Nun verkommen aber immer mehr zu einem Datensumpf oder sogar Datengrab. Die 10 Regeln meine Daten im Sumpf oder direkt in Grab zu versenken oder umgekehrt wie mache ich es, damit es ein Data Lake wird für meine Analysten, das DWH und die Reports."
13:00 - 13:45 Uhr:
"Die Authentifizierung ist ein integraler Bestandteil der Datenbank Sicherheit. Bei ungenügender oder mangelhafter Authentifizierung respektive Passwörtern sind alle weiteren Sicherheitsmassnahmen in der Regel nutzlos. Doch wie stellt man sicher, dass Passwörter komplex und die Authentifizierung sicher ist? Im Rahmen diese Vortrages werden die Passwort Hashes erklärt und aufgezeigt wie Passwörter und Authentifizierung dem Stand der Technik entsprechen. Mit Fokus auf die aktuellen Versionen der Oracle Datenbank werden unter anderem folgende Themen diskutiert:
– Oracle Datenbank-Authentifizierung
– Passwort-Überprüfung und Hashes
– Wo findet man Passwort-Hashes?
– Überprüfen und von Passwort-Hashes.
– Diskussion verschiedener Risiken im zusammenhang mit der Authentifizierung.
– Diskussion von Passwort Richtlinien und sicheren Passwörter.
– Kunden Use Case im DB Vault Umfeld “ups wir haben die Passwörter vergessen”.
Die Präsentation wird durch entsprechende Beispiele und Live-Demos ergänzt."
13:00 - 13:45 Uhr:
"Welche Vorteile bietet der Einsatz eines Event Hubs in einer modernen Daten Architektur? Was genau ist ein Event Hub und welche Eigenschaften sollte er bieten? Warum ist Apache Kafka die zurzeit populärste Umsetzung eines Event Hub?
Diese und andere Fragen wird durch diese Präsentation beantwortet. Der Vortrag beginnt mit einer hersteller-neutralen Definition eines Event Hubs. Danach werden die verschiedenen Architektur Style beleuchtet, die durch den Einsatz eine Event Hubs unterstützt werden können, wie z.B. Stream Data Integration, Stream Analytics und entkoppelte, ereignisgetriebenen Applikationen bzw. Microservices und wie diese in eine ganzheitliche Architektur kombiniert werden können. Der Vortrag endet mit einer Betrachtung von Apache Kafka und zeigt die Nutzung der verschiedenen Kafka Komponenten in der modernen Datenarchitektur."
14:00 - 14:45 Uhr:
"Mit dem Wechsel zu den jährlichen Releases der Oracle-Datenbank wird es immer schwieriger, den Überblick über die neu eingeführten Erweiterungen zu behalten. Jede Datenbankversion umfasst zahlreiche, oft unscheinbare neue Features. Einige davon sind prominent im „New Features Guide“ beschreiben, andere werden kaum erwähnt und sind sehr gut in der Dokumentation versteckt.
In diesem Vortrag werden einige unscheinbare, aber nützliche SQL-Erweiterungen der neusten Oracle-Version vorgestellt und ihre Funktionsweise anhand von Demobeispielen aufgezeigt."
08:00 - 08:45 Uhr:
"A-Z in upper and lower case isn’t enough in a global world, you need to support all sorts of textual data. Oracle database can handle most of it, but there are pitfalls to be aware of - even using Unicode that should handle everything. Learn about NLS and collation and converting charactersets."
08:00 - 08:45 Uhr:
"Mit dem Relationalen Datenbank Service (RDS) bietet Amazon Web Services (AWS) einen managed Service für viele Datenbank Produkte (z.B. Oracle, Postges und MYSQL) an.
Dabei übernimmt AWS bereits viele der DBA Standardtätigkeiten und hat diese automatisiert. Doch was fehlt damit du dich wirklich um nichts mehr kümmern muss?
Welche Themen werden vollständig gemanagt und wo musst du selbst aktiv an Lösungen arbeiten?
In einer Welt wo ein automatisches Backup nur noch ein Häkchen in einer Weboberfläche ist, lohnt sich ein genauerer Blick."
10:00 - 10:45 Uhr:
"Die Notizen von Oracle zu PL/SQL über die neuen Features für Release 20c haben unter anderem diese Schlüsselwörter:
• PL/SQL Extended Iterators
• PL/SQL Qualified Expressions Enhancements
• SQL Macros
Was ist das? Was bringt mir das in meinem täglichen Leben? Kann ich das einsetzen? Dies und mehr wird in diesem Vortrag an praktischen Beispielen erklärt."
13:00 - 13:45 Uhr:
"Auf Basis eines End-to-End Beispiel soll der Einsatz von Kafka und anderen Werkzeugen rund um Kafka demonstriert werden und den Teilnehmern gezeigt werden, wie einfach sich Streaming-Lösungen umsetzten lassen, ohne zwingend viel Code schreiben zu müssen. Daten werden von fiktiven IoT Sensoren generiert, die über MQTT in Kafka eingebunden werden. Dabei werden Kafka Connect und StreamSets Data Collector im Einsatz gezeigt. Danach werden die Daten innerhalb von Kafka mit KSQL und Kafka Streams analysiert und Resultate in Echtzeit visualisiert. Dabei werden die IoT Daten mit statischen Daten aus Stammdatensystemen erweitert. Auf mögliche Datenformate der Nachrichten wie JSON und AVRO wird ebenfalls eingegangen. Das ganze ist eine Live Demo ohne Folien. Die einzige Aussnahme ist eine Slide mit der Architektur der Lösung, die Schritt für Schritt mit den entsprechenden Werkzeugen ergänzt wird, so dass der Teilnehmer nie die Übersicht verliert."
14:00 - 14:45 Uhr:
"Nachdem Oracle im April 2019 die RAC-Option für die Standard Edition 2 der Datenbank für de Version 19c abgekündigt hatte, gab es einen großen Aufschrei unter den Anhängern dieser „kleinen“ Variante der Oracle Datenbank. Im Spätherbst hieß es dann aus Redwood Shore: „Wir haben euch gehört“. Seit dem Release Update 19.7 ist nun „Standard Edition High Availability“ (SEHA“ verfügbar. Was kann dieses neue Feature, welche Einschränkungen sind zu beachten und wie ist ingesamt der Stand der Hochverfügbarkeitsmöglichkeiten, die Oracle für die SE2 „out of the box“ mitliefert?"
SILKE LEISNER
Trivadis Holding AG
Project Leader Eventmarketing D-A-CH
Telefon: +41 58 459 57 22
E-Mail: silke.leisner@trivadis.com