Skip to main content

Falsche Freunde

ada-magazin

Empfehlungsalgorithmen sagen uns, wo es die beste Pizza gibt, welche Serie wir als nächstes schauen und wen wir daten sollten. Doch ihre Vorschläge sind mit Vorsicht zu genießen.

Die Musikindustrie ist eine Männerwelt. Nicht nur in der klassischen Musik, wo 98 Prozent des Repertoires von männlichen Komponisten stammen. Auch von den Popmusikern, die man auf Streamingdiensten wie Spotify hören kann, sind drei Viertel Männer. Entsprechend hören die User:innen vorwiegend Männermusik, und wenn das System ihnen neue Titel vorschlägt, sind diese Listen männerlastig. „Was empfohlen wird, wird konsumiert”, sagt Christine Bauer, eine österreichische Informatikerin, die an der Universität Utrecht lehrt. Die Empfehlungen zementieren also die herrschenden Verhältnisse. „Und wir wollten sehen, ob wir diesen Loop durchbrechen können.”

Dass Algorithmen gesellschaftliche Ungleichheit widerspiegeln oder gar verstärken können, ist in den letzten Jahren viel diskutiert worden. Dabei ging es vor allem um die Deep-Learning-Algorithmen, die Gesichter erkennen, Entscheidungen im Strafvollzug unterstützen oder Bewerber für einen Job aussortieren. Nun gerät aber eine andere Klasse von Software-Programmen ins Visier der Kritik: die Empfehlungsalgorithmen, die uns auf Schritt und Tritt begleiten

Die Macht der Algorithmen


SWR2

Algorithmen bestimmen zunehmend unser Leben: Sie entscheiden, welche Beiträge in sozialen Netzwerken wir sehen, sie sichten die Bewerber auf eine Arbeitsstelle und entscheiden manchmal sogar, wer aus dem Gefängnis freikommt und wer nicht. Sie haben also Macht über uns, aber sie sind meistens unsichtbar.

Viele fordern, diese Macht mehr zu kontrollieren und sie zu begrenzen. Andere träumen von einer Zukunft, in der Algorithmen mit kühler Vernunft gerechtere Entscheidungen treffen.

Das Manuskript als PDF

Die unsichtbare Maske

Zeit Online

Einfach das Selfie mit einer Prise Brad Pitt vermischen und schon werden unsere Gesichter unsichtbar für Algorithmen? Ja, sagen die Entwickler eines neuen Verfahrens.

Die Corona-Pandemie ist keine gute Zeit für die Spione bei Polizei, Geheimdiensten und Privatfirmen, die sich auf Gesichtserkennungsalgorithmen verlassen. Menschen, die sich maskiert in der Öffentlichkeit bewegen, sind von solchen Algorithmen praktisch nicht zu identifizieren. Nicht einmal Smartphones erkennen ihre Besitzer. Die müssen wie früher ihren PIN-Code eingeben, um das Handy zu entsperren.

Der Mund-Nasen-Schutz wurde in diesem Jahr somit zufällig zu einem ebenso einfachen wie effektiven Mittel gegen Gesichtserkennung. Doch die Pandemie wird irgendwann zu Ende sein, Gesichtserkennung wird bleiben

„Das Internet wird vielfach als Sündenbock missbraucht“

Zeit Online

(Dies ist die Langfassung des Interviews, das ich mit Tim O’Reilly geführt habe. Sie enthält einige Passagen, die aus der Fassung von Zeit Online herausgekürzt wurden – ich fand sie interessant genug, um sie hier zu dokumentieren.)

Ist das Internet kaputt? Nein, sagt der Webvordenker Tim O’Reilly. Er glaubt immer noch an das Gute im Netz. Ein Gespräch über Geparden, Elefanten und Donald Trump

Er gilt als „Orakel des Silicon Valley“: Tim O’Reilly hat Begriffe wie „Open Source“ oder „Web 2.0“ populär gemacht. Als Gründer und CEO des Computerbuchverlags O’Reilly Media hat er mehrere Bücher verfasst – unter anderem über Windows, Twitter und Unix. In seinem jüngsten Werk „WTF? What’s the Future and Why It’s Up to Us“ beschäftigt er sich mit der Zukunft und der „nächsten Ökonomie“. ZEIT ONLINE hat ihn getroffen und mit ihm über den Hype um künstliche Intelligenz (KI), datenbasierte Politik und den Zustand des Internets gesprochen.

Herr O’Reilly, würden Sie lieber von einem Präsidenten wie Donald Trump regiert oder von einer künstlichen Intelligenz?

Das kommt auf die KI an genauso wie auf die Person.

Warum?

Genauso, wie es viele Arten von Lebewesen gibt, wird es wahrscheinlich auch viele Arten von KI geben. Und sie werden unterschiedliche Begabungen haben. Ein Pferd oder ein Gepard rennen ja auch schneller als wir Menschen, trotzdem können wir andere Dinge besser als sie. Also müssen wir eher über spezifische Fähigkeiten reden.

Zum Beispiel?

weiterlesen

Um nicht zu diskriminieren, müssen wir manchmal diskriminieren

Simons Institute Newsletter

Wir alle streben danach, in unseren Entscheidungen Menschen nicht aufgrund ihres Geschlechts oder ihrer Hautfarbe zu diskriminieren – etwa wenn wir Bewerberber für einen Job auswählen. Diskriminierung ist gesetzlich verboten, und oft steht in diesen Gesetzen explizit, dass gewisse Persönlichkeitsmerkmale bei der Beurteilung von Menschen nicht herangezogen werden dürfen. Aber die Annahme, dass dies zu mehr Gerechtigkeit führe, ist falsch – mathematisch beweisbar falsch

(Artikel in Englisch)

Er weiß es, bevor du es weißt

Die Zeit

Wer kann schon durchschauen, wie ein Computer entscheidet? Eine neue Art von Bürgerrechtlern versucht es.

Ein Kunde der amerikanischen Supermarktkette Target stürmte in das Kundendienstbüro einer Filiale in Minneapolis und beklagte sich, dass seine Tochter, die noch zur Schule ging, per Post Coupons für Babykleidung und Kinderbetten bekommen habe. „Wollen Sie sie ermutigen, schwanger zu werden?“ Der Mitarbeiter entschuldigte sich zunächst – später stellte sich heraus, dass der Teenager bereits schwanger war.

Diese Anekdote wird immer wieder erzählt, um zu belegen, dass Computer manchmal mehr über uns wissen als unsere Nächsten. Das New York Times Magazine hatte sie 2012 in Umlauf gebracht. Warum aber hatte die Software die Coupons verschickt?