TRIVADIS AUF MESSEN UND KONGRESSEN

TRIVADIS AUF MESSEN UND KONGRESSEN

DOAG Konferenz + Ausstellung 2020

Die DOAG Konferenz + Ausstellung findet vom 17. bis 19. November 2020 erstmals ONLINE statt. Trivadis ist natürlich auch in diesem Jahr dabei - im virtuellen EXPO-Bereich.

Auf der DOAG Konferenz + Ausstellung findest du genau die Vorträge, die zu deinen beruflichen Herausforderungen passen und du kannst dich direkt mit unseren zahlreichen Speaker*innen und Expert*innen austauschen. Auch Trivadis ist in diesem Jahr wieder mit 18 Vorträgen vertreten - Liste siehe unten - denn wir wollen unser Wissen mit dir persönlich teilen und freuen uns bereits jetzt darauf, dich online bei der DOAG Konferenz + Ausstellung 2020 zu treffen.

Und hier noch ein paar Empfehlungen für dich:

  • Unser gesamtes Angebot zu biGENIUS® findest du hier.
  • Bist du ready für die Cloud? Hier findest du es heraus.
  • Benötigst du agile und schlanke
    Lösungen für deine wichtigsten Betriebsaufgaben? Dann kannst du die Trivadis Toolbox für dich arbeiten lassen.
  • Und falls du dich für unsere Oracle-Trainings interessierst, wirst du hier fündig.

Besuche gerne unsere Sessions auf der DOAG Konferenz + Ausstellung 2020

17. November 2020

Homeoffice: Temporäre Notlösung oder Chance für die Zukunft? (Dani Schnider)

11:00 - 11:45 Uhr:

"Die Corona-Krise hat das ermöglicht, was in vielen Firmen bisher kaum denkbar war: Arbeiten zu Hause. Für viele Arbeitnehmerinnen und Arbeitnehmer ist dies eine neue Erfahrung – mit allen Vor- und Nachteilen. Für andere ist „Homeoffice“ seit Jahren eine übliche Arbeitsform. Ich gehöre zur zweiten Gruppe, bisher jedoch nicht so konsequent wie in den vergangenen Monaten.
Im Gegensatz zu anderen Berufsgruppen bietet unser Job ideale Voraussetzungen für Remote-Arbeit. Doch wollen wir das? Und wenn ja, für welche Tätigkeiten? Nach zahlreichen Skype-, Zoom-, Teams- und WebEx-Sessions, Remote-Reviews, Video-Sitzungen, Online-Konferenzen und virtuellen Kaffeepausen versuche ich in diesem Vortrag, einen Überblick über die Vor- und Nachteile von Homeoffice aufzuzeigen. Vielleicht lohnt es sich, diese Arbeitsform auch in Zukunft, wenn wir uns wieder frei bewegen können, beizubehalten – zumindest für einen Teil unseres beruflichen Alltags."

ksqlDB - Stream Processing leicht gemacht! (Guido Schmutz)

12:00 - 12:45 Uhr:

"ksqlDB ist eine Stream-Processing Engine, die auf Kafka Streams aufsetzt und die Möglichkeit bietet, Nachrichten aus Kafka zu konsumieren, diese in Echtzeit mittels SQL-ähnlicher Semantik zu verarbeiten und zu analysieren, und die Ergebnisse wiederum in ein Topic in Kafka zu produzieren. Dabei muss anderes als bei Kafka Streams, keine Zeile Programmcode geschrieben werden. Dies macht den Einstieg in die Welt von Ereignisverarbeitung sehr viel einfacher.
KSQL bietet dabei leistungsfähige Funktionen für die Ereignisverarbeitung wie Joins, Aggregationen und Zeitfenster über eine SQL-ähnliche Sprache. Dieser Vortrag bietet einen Einstieg in KSQL, zeigt wie sich KSQL ins Kafka Ökosystem integriert und wie einfach die Nutzung von KSQL ist. Das ganze wird mehreren Live Demos untermauert."

Enterprise Cloud Readiness - Was ist zu tun? (Florian Feicht)

15:00 - 15:45 Uhr:

"Die Nutzung einer Public Cloud ist sehr einfach, Kreditkarte hinterlegen und starten. Damit können schon die ersten Mehrwerte für Ihr Business erreicht werden.
Bis zu einer Enterprise fähigen Nutzung ist es aber noch ein weiter Weg. Themen wie Security, Governance, Monitoring, Billing und Automatisierung sind nur einige Voraussetzungen. Nur wenn diese richtig implementiert sind werden die Fachbereiche enabled die Features der Public Cloud Anbieter vollumfänglich nutzen zu können.
In diesem Vortrag werden anhand einer strukturierten Vorgehensweise die zu bearbeitenden Themenblöcke aufgezeigt. Dabei werden Tipps und Tricks aus der Praxis mit dargestellt."

Wie mache ich meinen SQL & PL/SQL Code schön und lesbar? (Philipp Salvisberg)

17:00 - 17:45 Uhr:

"Wie mache ich meinen SQL & PL/SQL Code schön und lesbar?
Ganz einfach. Mit Hilfe von Farben, ein paar Zeilenumbrüchen und Leerzeichen an den richtigen Stellen. Vielleicht auch gezielter Einsatz von Gross- und Kleinschreibung. Aber nur dann, wenn gewisse SQL Features nicht genutzt werden.
Der SQL Developer kennt einige Standard-Einstellungen, um den Code einzufärben sowie zu formatieren. Allerdings werden den künstlerischen Freiheiten klare Grenzen gesetzt. Und wenn es um Schönheit geht, dann scheiden sich die Geister. Und das ist beim Code nicht anders.
Der SQL Developer bietet glücklicherweise seit der Version 19.2 weitere Möglichkeiten an, um Code ganz nach den persönlichen Wünschen automatisiert zu verschönern. Mit Hilfe von Arbori – eine Abfragesprache für Parse-Trees. Wie das geht und welche Rolle JavaScript und SQLcl dabei spielt, zeige ich an paar einfachen, praxisnahen Beispielen in meinem Vortrag."

ETL Prozesse auf andere Plattformen migrieren (Peter Welker)

17:00 - 17:45 Uhr:

"Dass die Migration vom Oracle Warehouse Builder (OWB) auf den Oracle Data Integrator (ODI) weitgehend automatisiert werden kann, ist bekannt. Dass eine solche Migration aber auch generell zwischen ETL Werkzeugen möglich ist, zeigen wir anhand realer Anwendungsfälle rund um Oracle Datawarehouses. Während der Präsentation migrieren wir dabei live mehrere tausend ETL Jobs (nicht zu ODI), erläutern anhand von Stichproben Problemstellungen und mögliche Lösungen im Detail, besprechen passende Teststrategien, erklären, wie eine solche Migration gleichzeitig für Refactoring und zur Prozesskonsolidierung genutzt werden kann und zeigen, wie und warum dadurch auch ein Wechsel der Datenbank einfacher wird."

18. November 2020

Big Data, Data Lake, Datenserialisierungsformate (Guido Schmutz)

10:00 - 10:45 Uhr:

"Das Konzept des 'Data Lake' ist heute in aller Munde. Die Idee, alle Daten, die im Unternehmen anfallen an einer zentralen Stelle abzuspeichern und verfügbar zu machen klingt fürs Erste natürlich sehr interessant. Der Data Lake kann sich jedoch schnell vom klaren, schönen Bergsee in einen riesigen Tümpel verwandeln, insbesondere dann, wenn man ihm unbedarft sämtliche Quellen-Datenformate anvertraut, die heute in den Unternehmen gängig sind, wie z.B. XML, JSON, CSV oder unstrukturierte Textdaten. Wer hat hier nach geraumer Zeit noch die Übersicht, welche Daten, welches Format haben und wie sich diese über verschiedenen Versionen weiterentwickelt haben? Jeder der sich aus dem Data Lake bedienen will, muss sich immer wieder die selben Fragen stellen: welche Informationen werden zur Verfügung gestellt, welche Datentypen haben sie und wie hat sich der Inhalt über die Zeit verändert?
Abhilfe schaffen können Datenserialisierungs-Frameworks wie z.B. Apache Avro und Google Protocol Buffer (Protobuf), die eine plattform-unabhängige Datenmodellierung und Datenspeicherung ermöglichen. Dieser Vortrag geht auf die Möglichkeiten von Avro und Protobuf ein und zeigt, wie man diese im Kontext eines Data Lakes einsetzen kann und welche Vorteile man damit erzielen kann. Die Unterstützung on Avro und Protobuf durch Big Data und Fast Data Plattformen ist dabei ebenfalls ein Thema."

Agile Entwicklung ohne Testing = Schiffsbruch (Jan Ott)

11:00 - 11:45 Uhr:

"Wir alle wissen, dass das Testen ein zentraler Bestandteil der IT Entwicklung ist. Leider wird es in den meisten Projekt immer noch sehr stiefmütterlich, wenn überhaupt, behandelt.
Dies wirkt sich in der neuen agilen Welt umso schlimmer aus! Alle 2-4 Wochen ein Release, je nach Sprint-Länge. Das funktioniert ohne automatisiertes Testen nicht. Schlimmer, es führt direkt ins Verderben. Der Referent zeigt in einem ersten Teil, anhand mehrer Projekte auf, was schiefgehen könnte. Im zweiten Teil erklärt er, wie man es richtig macht. Auch dies an zwei konkreten Projekten."

SQL Abfragen im Multi Datalake Setup (Markus Bente)

11:00 - 11:45 Uhr:

"Der Fragestellung, mit welcher man in Multi Datalake / Data Source Umgebungen früher oder später konfrontiert wird, ist wie Daten an einer zentralen Stelle nutzbar gemacht werden können.
Dieser zentrale Zugriffs-Layer soll für Applikationen sowie für Visualisierung (z.B Apache Superset oder PowerBI) genutzt werden können. Dabei soll es keine Rolle spielen ob man beispielsweise auf ein Parquet File auf S3 oder eine Datenbank Tabelle zugreift.
In dieser Session zeige ich, wie man mit Data Lake Engines wie Apache Drill und Dremio einen zentralen Zugriffs-Layer aufbauen kann, welcher die Kombination unterschiedlicher Quellen über ein SQL-Interface möglich macht.
Welche unterschiedlichen Quellsysteme werden unterstützt? Welche Daten Typen kann ich nutzen? Wie kann ich die zur Verfügung stehende Daten unabhängig von deren Source joinen? Diese und weitere Fragen werde ich in dieser Präsentation behandeln.
Anhand einer Live Demo werde ich auf die Möglichkeiten in Dremio eingehen, die den Business / Daten Analysten unterstützen, seine Daten aufzubereiten, anzureichern und im Anschluss als Dashboard darzustellen."

Multitenant – wenn nicht jetzt, wann dann (Markus Flechtner, Johannes Ahrends)

11:00 - 11:45 Uhr

Data Lake vs. Data Swamp - 10 Regeln um Daten zu versenken (Jan Ott)

12:00 - 12:45 Uhr:

"Data Lakes sind in aller Munde. Nun verkommen aber immer mehr zu einem Datensumpf oder sogar Datengrab. Die 10 Regeln meine Daten im Sumpf oder direkt in Grab zu versenken oder umgekehrt wie mache ich es, damit es ein Data Lake wird für meine Analysten, das DWH und die Reports."

Security Best Practice: Oracle Passwörter, aber sicher! (Stefan Oehrli)

13:00 - 13:45 Uhr:

"Die Authentifizierung ist ein integraler Bestandteil der Datenbank Sicherheit. Bei ungenügender oder mangelhafter Authentifizierung respektive Passwörtern sind alle weiteren Sicherheitsmassnahmen in der Regel nutzlos. Doch wie stellt man sicher, dass Passwörter komplex und die Authentifizierung sicher ist? Im Rahmen diese Vortrages werden die Passwort Hashes erklärt und aufgezeigt wie Passwörter und Authentifizierung dem Stand der Technik entsprechen. Mit Fokus auf die aktuellen Versionen der Oracle Datenbank werden unter anderem folgende Themen diskutiert:
– Oracle Datenbank-Authentifizierung
– Passwort-Überprüfung und Hashes
– Wo findet man Passwort-Hashes?
– Überprüfen und von Passwort-Hashes.
– Diskussion verschiedener Risiken im zusammenhang mit der Authentifizierung.
– Diskussion von Passwort Richtlinien und sicheren Passwörter.
– Kunden Use Case im DB Vault Umfeld “ups wir haben die Passwörter vergessen”.
Die Präsentation wird durch entsprechende Beispiele und Live-Demos ergänzt."

Rolle des Event Hubs in einer Modernen Daten Architektur (Guido Schmutz)

13:00 - 13:45 Uhr:

"Welche Vorteile bietet der Einsatz eines Event Hubs in einer modernen Daten Architektur? Was genau ist ein Event Hub und welche Eigenschaften sollte er bieten? Warum ist Apache Kafka die zurzeit populärste Umsetzung eines Event Hub?
Diese und andere Fragen wird durch diese Präsentation beantwortet. Der Vortrag beginnt mit einer hersteller-neutralen Definition eines Event Hubs. Danach werden die verschiedenen Architektur Style beleuchtet, die durch den Einsatz eine Event Hubs unterstützt werden können, wie z.B. Stream Data Integration, Stream Analytics und entkoppelte, ereignisgetriebenen Applikationen bzw. Microservices und wie diese in eine ganzheitliche Architektur kombiniert werden können. Der Vortrag endet mit einer Betrachtung von Apache Kafka und zeigt die Nutzung der verschiedenen Kafka Komponenten in der modernen Datenarchitektur."

Interessante SQL-Erweiterungen in Oracle 20c (Dani Schnider)

14:00 - 14:45 Uhr:

"Mit dem Wechsel zu den jährlichen Releases der Oracle-Datenbank wird es immer schwieriger, den Überblick über die neu eingeführten Erweiterungen zu behalten. Jede Datenbankversion umfasst zahlreiche, oft unscheinbare neue Features. Einige davon sind prominent im „New Features Guide“ beschreiben, andere werden kaum erwähnt und sind sehr gut in der Dokumentation versteckt.
In diesem Vortrag werden einige unscheinbare, aber nützliche SQL-Erweiterungen der neusten Oracle-Version vorgestellt und ihre Funktionsweise anhand von Demobeispielen aufgezeigt."

19. November 2020

When 7-bit ASCII ain't enough - NLS, Collation etc. (Kim Berg Hansen)

08:00 - 08:45 Uhr:

"A-Z in upper and lower case isn’t enough in a global world, you need to support all sorts of textual data. Oracle database can handle most of it, but there are pitfalls to be aware of - even using Unicode that should handle everything. Learn about NLS and collation and converting charactersets."

AWS RDS Oracle - Was fehlt zum gemanagten Service? (Daniel Hillinger)

08:00 - 08:45 Uhr:

"Mit dem Relationalen Datenbank Service (RDS) bietet Amazon Web Services (AWS) einen managed Service für viele Datenbank Produkte (z.B. Oracle, Postges und MYSQL) an.
Dabei übernimmt AWS bereits viele der DBA Standardtätigkeiten und hat diese automatisiert. Doch was fehlt damit du dich wirklich um nichts mehr kümmern muss?
Welche Themen werden vollständig gemanagt und wo musst du selbst aktiv an Lösungen arbeiten?
In einer Welt wo ein automatisches Backup nur noch ein Häkchen in einer Weboberfläche ist, lohnt sich ein genauerer Blick."

Neuigkeiten für PL/SQL in 20c (Jan Ott)

10:00 - 10:45 Uhr:

"Die Notizen von Oracle zu PL/SQL über die neuen Features für Release 20c haben unter anderem diese Schlüsselwörter:
• PL/SQL Extended Iterators
• PL/SQL Qualified Expressions Enhancements
• SQL Macros
Was ist das? Was bringt mir das in meinem täglichen Leben? Kann ich das einsetzen? Dies und mehr wird in diesem Vortrag an praktischen Beispielen erklärt."

Kafka Livedemo: Umsetzung einer Streaminglösung (Guido Schmutz)

13:00 - 13:45 Uhr:

"Auf Basis eines End-to-End Beispiel soll der Einsatz von Kafka und anderen Werkzeugen rund um Kafka demonstriert werden und den Teilnehmern gezeigt werden, wie einfach sich Streaming-Lösungen umsetzten lassen, ohne zwingend viel Code schreiben zu müssen. Daten werden von fiktiven IoT Sensoren generiert, die über MQTT in Kafka eingebunden werden. Dabei werden Kafka Connect und StreamSets Data Collector im Einsatz gezeigt. Danach werden die Daten innerhalb von Kafka mit KSQL und Kafka Streams analysiert und Resultate in Echtzeit visualisiert. Dabei werden die IoT Daten mit statischen Daten aus Stammdatensystemen erweitert. Auf mögliche Datenformate der Nachrichten wie JSON und AVRO wird ebenfalls eingegangen. Das ganze ist eine Live Demo ohne Folien. Die einzige Aussnahme ist eine Slide mit der Architektur der Lösung, die Schritt für Schritt mit den entsprechenden Werkzeugen ergänzt wird, so dass der Teilnehmer nie die Übersicht verliert."

Hochverfügbarkeit für die Standard Edition 2 (Markus Flechtner)

14:00 - 14:45 Uhr:

"Nachdem Oracle im April 2019 die RAC-Option für die Standard Edition 2 der Datenbank für de Version 19c abgekündigt hatte, gab es einen großen Aufschrei unter den Anhängern dieser „kleinen“ Variante der Oracle Datenbank. Im Spätherbst hieß es dann aus Redwood Shore: „Wir haben euch gehört“. Seit dem Release Update 19.7 ist nun „Standard Edition High Availability“ (SEHA“ verfügbar. Was kann dieses neue Feature, welche Einschränkungen sind zu beachten und wie ist ingesamt der Stand der Hochverfügbarkeitsmöglichkeiten, die Oracle für die SE2 „out of the box“ mitliefert?"

ANSPRECHPARTNERIN

Silke Leisner_225x225

SILKE LEISNER
Trivadis Holding AG
Project Leader Eventmarketing D-A-CH

Telefon: +41 58 459 57 22
E-Mail: silke.leisner@trivadis.com

Bleib neugierig
Neben dieser Veranstaltung teilen wir unser Wissen auch an einer grossen Anzahl von weiteren Live und Online Events.
Eine Übersicht aller Veranstaltungen von oder mit Trivadis
findest du hier.
Bleib informiert
Neugierig, was wir mit intelligenter IT für dich erreichen können?
Melde dich für unseren Newsletter an.