Data & IT
Pocket
Algorithmic Bias: Verzerrungen durch Algorithmen verstehen und verhindern
Tobias Br
359:-
Uppskattad leveranstid 10-16 arbetsdagar
Fri frakt för medlemmar vid köp för minst 249:-
Sind Algorithmen Freund oder Feind? Der menschliche Verstand ist evolutionr darauf ausgelegt, Abkrzungen zu nehmen, um zu berleben. Wir ziehen voreilige Schlsse, weil unser Gehirn uns in Sicherheit wiegen will. Die meisten unserer Voreingenommenheiten wirken sich zu unseren Gunsten aus, z. B. wenn wir ein Auto, das in unsere Richtung fhrt, fr gefhrlich halten und sofort ausweichen oder wenn wir beschlieen, einen Bissen Essen nicht zu essen, der verdorben zu sein scheint. Allerdings wirken sich inhrente Vorurteile negativ auf das Arbeitsumfeld und die Entscheidungsfindung in unseren Gemeinschaften aus. Zwar wird mit der Entwicklung von Algorithmen und maschinellem Lernen versucht, Voreingenommenheit zu beseitigen, doch werden sie schlielich von Menschen geschaffen und sind daher anfllig fr das, was wir algorithmische Voreingenommenheit nennen. In Understand, Manage, and Prevent Algorithmic Bias (Algorithmische Voreingenommenheit verstehen, handhaben und verhindern) hilft Ihnen der Autor Tobias Baer zu verstehen, woher algorithmische Voreingenommenheit kommt, wie man sie als Geschftsanwender oder Regulierungsbehrde handhaben kann und wie die Datenwissenschaft verhindern kann, dass Voreingenommenheit in statistische Algorithmen einfliet. Baer befasst sich fachkundig mit einigen der mehr als 100 Arten natrlicher Verzerrungen wie Confirmation Bias, Stability Bias, Pattern Recognition Bias und vielen anderen. Algorithmische Verzerrungen spiegeln diese menschlichen Tendenzen wider und haben ihren Ursprung in ihnen. Baer befasst sich mit so unterschiedlichen Themen wie der Erkennung von Anomalien, hybriden Modellstrukturen und selbstverbesserndem maschinellen Lernen. Whrend sich die meisten Schriften ber algorithmische Voreingenommenheit auf die Gefahren konzentrieren, weist der Kern dieses positiven, unterhaltsamen Buches auf einen Weg hin, auf dem Voreingenommenheit in Schach gehalten und sogar beseitigt werden kann. Sie erhalten Managementtechniken, um unvoreingenommene Algorithmen zu entwickeln, die Fhigkeit, Voreingenommenheit schneller zu erkennen, und das Wissen, um unvoreingenommene Daten zu erstellen. Algorithmic Bias verstehen, verwalten und verhindern ist ein innovatives, zeitgemes und wichtiges Buch, das in Ihr Regal gehrt. Egal, ob Sie eine erfahrene Fhrungskraft in der Wirtschaft, ein Datenwissenschaftler oder einfach nur ein Enthusiast sind, jetzt ist ein entscheidender Zeitpunkt, um sich ber die Auswirkungen algorithmischer Verzerrungen auf die Gesellschaft zu informieren und eine aktive Rolle im Kampf gegen Verzerrungen zu bernehmen. Was Sie lernen werden Untersuchung der vielen Quellen algorithmischer Verzerrungen, einschlielich kognitiver Verzerrungen in der realen Welt, verzerrter Daten und statistischer Artefakte Verstehen Sie die Risiken algorithmischer Verzerrungen, wie sie erkannt werden knnen und welche Managementtechniken es gibt, um sie zu verhindern oder zu verwalten Erkennen, wie maschinelles Lernen sowohl neue Quellen fr algorithmische Verzerrungen schafft als auch ein Teil der Lsung sein kann Kenntnis spezifischer statistischer Techniken, die ein Datenwissenschaftler anwenden kann, um algorithmische Verzerrungen zu erkennen und zu beseitigen Fr wen dieses Buch gedacht ist Fhrungskrfte von Unternehmen, die Algorithmen im tglichen Betrieb einsetzen; Datenwissenschaftler (von Studenten bis hin zu erfahrenen Praktikern), die Algorithmen entwickeln; Compliance-Beamte, die ber algorithmische Verzerrungen besorgt sind; Politiker, Journalisten und Philosophen, die ber algorithmische Verzerrungen im Hinblick auf ihre Auswirkungen auf die Gesellschaft und mgliche regulatorische Manahmen nachdenken; und Verbraucher, die darber besorgt sind, wie sie von algorithmischen Verzerrungen betroffen sein knnten
- Illustratör: Etwa 245 S
- Format: Pocket/Paperback
- ISBN: 9783662663141
- Språk: Engelska
- Antal sidor: 286
- Utgivningsdatum: 2023-01-02
- Förlag: Springer Vieweg