Zunehmend werden Algorithmen dazu eingesetzt, Menschen zu bewerten und Prognosen abzugeben. Doch statt neutral zu sein, bilden sie Stereotypen ab und verstärken vorhandene soziale Ungerechtigkeiten. Was haben Algorithmen mit Genderbias zu tun? Und wie sehen Lösungsansätze aus?