Zurück zur Übersicht

Torch: Staffel 1, Episode 8

How to weaponize AI? Biases & Ethical models explained (Kopie)

Algorithms are unbiased. When I first started with data science, I was convinced that this was true. Now I know that an algorithm is only as good as its data. And can data be biased? In my Torch Talk, I will show you how uneven aggregation and interpretation of data can influence data science projects.

 

Download Whitepaper

In this torch episode, I will show you: (Kopie)

  • Why data quality is key in any data science project.
  • How by using biased historical data, an algorithm will accentuate this bias even further.
  • What you can do to prevent your algorithm from generating a biased output.

Hallo zusammen, ich bin Luca Furrer und arbeite als Data Science und Data Analytics Consultant bei Trivadis - Part of Accenture. Meine Steckenpferde sind sowohl angewandte Mathematik als auch Softwareentwicklung. Entsprechend zu Hause fühle ich mich an der Schnittstelle von Daten, Mathematik und Algorithmen. Insbesondere macht es mir Spass, für jede Herausforderung das perfekte Tool ausfindig zu machen. Abgesehen vom Jonglieren mit Daten gehe ich gerne joggen, verbringe Zeit mit meinen Kindern und koche für meine Familie. Wie hat dir eigentlich mein Torch-Video gefallen? Falls du Lust hast, noch weiter über die Welt der Datenwissenschaft zu diskutieren, kontaktier mich einfach!

Takeaway

Algorithms already take a lot of decisions in our lives. Some are less crucial (e.g. which films are recommended to us on Netflix), others have more serious consequences (e.g. who is granted a loan and who isn’t). How can we make sure that, especially in the latter case, algorithms make unbiased decisions? In my takeaway, you will find a hands-on checklist that you can use as a basis for your own data science project.

Download now (Kopie)

MORE EPISODES (Kopie)

Deine Ansprechperson