Vorwort
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Das maschinelle Lernen (ML) ist heute die kommerziell erfolgreichste Teildisziplin der künstlichen Intelligenz (KI). ML-Systeme werden eingesetzt, um risikoreiche Entscheidungen in den Bereichen Beschäftigung, Kaution, Bewährung, Kreditvergabe, Sicherheit und in vielen anderen wichtigen Anwendungen in der weltweiten Wirtschaft und in Regierungen zu treffen. In Unternehmen werden ML-Systeme in allen Bereichen eines Unternehmens eingesetzt - von Produkten für Verbraucher über Mitarbeiterbeurteilungen bis hin zur Back-Office-Automatisierung und vielem mehr. In den letzten zehn Jahren hat sich die Verbreitung von ML-Technologien sogar noch verstärkt. Es hat sich aber auch gezeigt, dass ML Risiken für seine Betreiber, die Verbraucher und sogar die Öffentlichkeit birgt.
Wie alle Technologien kann auch ML fehlschlagen - sei es durch unbeabsichtigten oder absichtlichen Missbrauch. Bis 2023 gibt es Tausende von öffentlichen Berichten über algorithmische Diskriminierung, Datenschutzverletzungen, Verletzungen der Datensicherheit in der Ausbildung und andere schädliche Vorfälle. Diese Risiken müssen gemildert werden, bevor Unternehmen und die Öffentlichkeit die wahren Vorteile dieser spannenden Technologie nutzen können. Um die Risiken von ML anzugehen, müssen die Praktiker/innen handeln. Auch wenn sich erste Standards herausgebildet haben, an denen sich dieses Buch orientieren soll, gibt es für die Anwendung von ML noch immer keine allgemein anerkannten professionellen Lizenzen oder bewährten Methoden. Das bedeutet, dass es größtenteils an den einzelnen Praktikern liegt, sich für die guten und schlechten Ergebnisse ihrer Technologie zu verantworten, wenn diese in der Welt eingesetzt wird. Machine Learning for High-Risk Applications vermittelt ein solides Verständnis für Modell-Risikomanagementprozesse und neue Möglichkeiten, gängige Python-Tools für das Training erklärbarer Modelle und deren Fehlersuche im Hinblick auf Zuverlässigkeit, Sicherheit, Bias-Management und Datenschutz zu nutzen.
Hinweis
Wir übernehmen eine Definition von KI aus dem Buch " Artificial Intelligence" von Stuart Russell und Peter Norvig : A Modern Approach: Das Entwerfen und Bauen intelligenter Systeme, die Signale aus der Umwelt empfangen und Maßnahmen ergreifen, die diese Umwelt beeinflussen (2020). Für ML verwenden wir die gängige Definition, die - vielleicht apokryph - Arthur Samuel zugeschrieben wird: [Ein] Studiengebiet, das Computern die Fähigkeit verleiht, zu lernen, ohne explizit programmiert zu werden(um 1960).
Wer sollte dieses Buch lesen?
Dies ist ein eher technisches Buch für ML-Ingenieure und Datenwissenschaftler, die etwas über den verantwortungsvollen Einsatz von ML oder ML-Risikomanagement lernen wollen. Die Codebeispiele sind in Python geschrieben. Das heißt, dieses Buch ist wahrscheinlich nicht für jeden Datenwissenschaftler und Ingenieur geeignet, der in Python programmiert. Dieses Buch ist für dich, wenn du die Grundlagen der Modellsteuerung erlernen und deinen Arbeitsablauf aktualisieren willst, um grundlegende Risikokontrollen zu ermöglichen. Dieses Buch ist für dich, wenn du mit deiner Arbeit bestimmte Standards für Nichtdiskriminierung, Transparenz, Datenschutz oder Sicherheit einhalten musst. (Wir können allerdings keine Garantie für die Einhaltung der Vorschriften geben und auch keine Rechtsberatung anbieten!) Dieses Buch ist für dich, wenn du erklärbare Modelle trainieren und lernen willst, sie zu bearbeiten und zu debuggen. Und schließlich ist dieses Buch für dich, wenn du dir Sorgen machst, dass deine Arbeit mit ML zu unbeabsichtigten Konsequenzen in Bezug auf soziologische Verzerrungen, Datenschutzverletzungen, Sicherheitslücken oder andere bekannte Probleme führt, die durch automatisierte Entscheidungsfindung im Allgemeinen verursacht werden - und du etwas dagegen tun willst.
Natürlich kann dieses Buch auch für andere von Interesse sein. Wenn du aus der Physik, Ökonometrie oder Psychometrie kommst, kann dir dieses Buch dabei helfen zu lernen, wie du neuere ML-Techniken mit fundiertem Fachwissen und Vorstellungen von Gültigkeit oder Kausalität verbinden kannst. Dieses Buch kann Aufsichtsbehörden oder Fachleuten aus der Politik einen Einblick in den aktuellen Stand der ML-Technologien geben, die zur Einhaltung von Gesetzen, Vorschriften oder Normen eingesetzt werden können. Technischen Risikoverantwortlichen oder Risikomanagern bietet dieses Buch einen aktuellen Überblick über neuere ML-Ansätze, die sich für hochsensible Anwendungen eignen. Und auch für erfahrene Datenwissenschaftler/innen oder ML-Ingenieure/innen ist dieses Buch lehrreich, aber es stellt auch viele etablierte Praktiken der Datenwissenschaft in Frage.
Was die Leser lernen werden
Die Leser dieses Buches lernen sowohl das traditionelle Modell-Risikomanagement kennen als auch, wie es mit bewährten Methoden der Computersicherheit wie Incident Response, Bug Bounties und Red-Teaming kombiniert werden kann, um kampferprobte Risikokontrollen auf ML-Workflows und -Systeme anzuwenden. In diesem Buch werden eine Reihe älterer und neuerer Erklärungsmodelle und Erklärungstechniken vorgestellt, die ML-Systeme noch transparenter machen. Sobald wir eine solide Grundlage für hochtransparente Modelle geschaffen haben, werden wir uns daran machen, die Modelle auf Sicherheit und Zuverlässigkeit zu testen. Das ist viel einfacher, wenn wir sehen können, wie unser Modell funktioniert! Wir gehen weit über Qualitätsmessungen in Holdout-Daten hinaus und erforschen, wie wir bekannte Diagnosetechniken wie Residualanalyse, Sensitivitätsanalyse und Benchmarking auf neue Arten von ML-Modellen anwenden können. Anschließend werden wir uns mit der Strukturierung von Modellen für das Bias-Management, dem Testen auf Verzerrungen und der Beseitigung von Verzerrungen aus organisatorischer und technischer Sicht befassen. Schließlich werden wir die Sicherheit von ML-Pipelinesund APIs diskutieren.
Hinweis
Der Entwurf des KI-Gesetzes der Europäischen Union ( ) stuft die folgenden ML-Anwendungen als hochriskant ein: biometrische Identifizierung, Verwaltung kritischer Infrastrukturen, Bildung, Beschäftigung, wichtige öffentliche (z. B. öffentliche Unterstützung) und private (z. B. Kreditvergabe) Dienstleistungen, Strafverfolgung, Einwanderung und Grenzkontrolle, Strafjustiz und demokratische Prozesse. Das sind die Arten von ML-Anwendungsfällen, die wir im Sinn haben, wenn wir von risikoreichen Anwendungen sprechen. Deshalb konzentrieren wir uns bei den Codebeispielen in diesem Buch auf Computer Vision und baumbasierte Modelle für tabellarische Daten.
Die Leserinnen und Leser sollten sich auch darüber im Klaren sein, dass wir uns in dieser ersten Ausgabe auf etabliertere ML-Methoden zur Schätzung und Entscheidungsfindung konzentrieren. Auf unüberwachtes Lernen, Suche, Empfehlungssysteme, Reinforcement Learning und generative KI gehen wir nicht besonders ausführlich ein. Hierfür gibt es mehrere Gründe:
-
Diese Systeme sind noch nicht die gängigsten kommerziellen Produktionssysteme.
-
Bevor wir zu anspruchsvolleren unüberwachten, Empfehlungs- und Verstärkungslernen oder generativen Ansätzen übergehen, müssen wir unbedingt die Grundlagen beherrschen. Diese erste Ausgabe des Buches konzentriert sich auf die Grundlagen, die es den Lesern ermöglichen, später anspruchsvollere Projekte in Angriff zu nehmen.
-
Das Risikomanagement für diese Systeme ist noch nicht so gut erforscht wie für die Arten von überwachten Modellen, auf die wir uns in diesem Buch konzentrieren. Um es direkt zu sagen - wie wir es im Rest des Buches oft tun -, die Verwendung von Modellen, deren Fehlermodi, Abhilfemaßnahmen und Kontrollen nicht gut bekannt sind, kann das Risiko erhöhen.
Wir hoffen, dass wir in Zukunft auf diese Themen zurückkommen werden, und wir erkennen an, dass sie heute Milliarden von Menschen betreffen - positiv wie negativ. Wir weisen auch darauf hin, dass viele der in diesem Buch vorgestellten Techniken, Risikominderungsmaßnahmen und Risikomanagementkonzepte mit ein wenig Kreativität und Fleiß auch auf unüberwachte Modelle, Suche, Empfehlungen und generative KI angewendet werden können und sollten.
Hinweis
Hochmoderne generative KI-Systeme wie ChatGPT und GitHub Copilot sind ein spannender Weg, wie ML unser Leben beeinflusst. Diese Systeme scheinen einige der Probleme mit der Voreingenommenheit gelöst zu haben, die frühere Generationen ähnlicher Systeme geplagt haben. Allerdings bergen sie immer noch Risiken, wenn sie in anspruchsvollen Anwendungen eingesetzt werden. Wenn wir mit ihnen arbeiten und Bedenken haben, sollten wir die folgenden einfachen Leitplanken beachten:
- Kopiere nicht von oder in die Benutzeroberfläche.
-
Wenn wir generierte Inhalte nicht direkt verwenden und unsere eigenen Inhalte nicht direkt in die Schnittstelle einfügen, können wir die Risiken für geistiges Eigentum und Datenschutz begrenzen.
- Überprüfe alle generierten Inhalte.
-
Diese Systeme erzeugen weiterhin falsche, beleidigende oder anderweitig problematische Inhalte.
- Vermeide Selbstgefälligkeit bei der Automatisierung.
-
Im Allgemeinen eignen sich diese Systeme besser für die Erstellung von Inhalten als für die Entscheidungshilfe. Wir sollten darauf achten, dass sie nicht ungewollt Entscheidungen für uns treffen.
Ausrichtung auf das NIST AI Risk Management Framework
Um unserem eigenen Rat zu folgen und das Buch für diejenigen, die an risikoreichen Anwendungen arbeiten, noch praktischer zu machen, werden wir hervorheben, wo die im Buch vorgeschlagenen Ansätze mit dem im Entstehen begriffenen National Institute of Standards and Technology (NIST) AI Risk Management Framework (RMF) übereinstimmen. Die Anwendung externer Standards ist eine bekannte Taktik des Risikomanagements, und das NIST hat eine unglaubliche Erfolgsbilanz bei der Erstellung verbindlicher technischer Richtlinien. Das RMF für KI hat viele Komponenten, aber zwei der wichtigsten sind die Merkmale für Vertrauenswürdigkeit in der KI und die zentralen RMF-Richtlinien. Die Merkmale für Vertrauenswürdigkeit legen die Grundprinzipien des KI-Risikomanagements fest, während die RMF-Anleitung Empfehlungen für die Umsetzung von Risikokontrollen enthält. Wir werden im gesamten Buch Begriffe verwenden, die sich auf die NIST-Merkmale für KI-Vertrauenswürdigkeit beziehen: Validität, Zuverlässigkeit, Sicherheit, Widerstandsfähigkeit, Transparenz, Rechenschaftspflicht, Erklärbarkeit, Interpretierbarkeit, Bias-Management und verbesserter Datenschutz. Zu Beginn jedes Kapitels in Teil I werden wir außerdem in einer Callout-Box aufschlüsseln, wie und wo der Inhalt mit bestimmten Aspekten der Kernfunktionen des NIST AI RMF map, measure, manage und govern übereinstimmt. Wir hoffen, dass die Anlehnung an die NIST AI RMF die Benutzerfreundlichkeit des Buches verbessert und es zu einem effektiveren Werkzeug für das KI-Risikomanagement macht.
Warnung
Das NIST prüft, genehmigt, duldet oder befasst sich anderweitig nicht mit dem Inhalt dieses Buches, auch nicht mit Behauptungen in Bezug auf die AI RMF. Alle AI RMF-Inhalte sind lediglich die Meinung der Autoren und spiegeln in keiner Weise eine offizielle Position des NIST oder eine offizielle oder inoffizielle Beziehung zwischen dem NIST und dem Buch oder den Autoren wider.
Buch Gliederung
Das Buch ist in drei Teile gegliedert. Teil I behandelt die Themen aus der Perspektive der praktischen Anwendung, mit einem Schuss Theorie, wo es nötig ist. Teil II enthält lange Python-Programmierbeispiele, die die Themen aus Teil I sowohl aus der Perspektive strukturierter als auch unstrukturierter Daten behandeln. Teil III vermittelt praxiserprobte Ratschläge, wie du in realen, risikoreichen Anwendungsfällen erfolgreich sein kannst.
Teil I
Kapitel 1 beginnt mit einem tiefen Einblick in anstehende Vorschriften, Diskussionen über die Produkthaftung und einer gründlichen Behandlung des Risikomanagements nach traditionellen Modellen. Da viele dieser Methoden eine eher nüchterne und professionelle Herangehensweise an die Modellierung voraussetzen - weit entfernt von dem heute üblichen "schnell handeln und Dinge kaputt machen"-Ethos - werden wir auch erörtern, wie man bewährte Methoden zur Computersicherheit, die von einem Scheitern ausgehen, in die Modellsteuerung einbezieht.
Kapitel 2 stellt das wachsende Ökosystem der erklärbaren Modelle vor. Wir behandeln die Familie der generalisierten additiven Modelle (GAM) am ausführlichsten, gehen aber auch auf viele andere Arten von hochwertigen und hochtransparenten Schätzern ein. In Kapitel 2 werden auch viele verschiedene Post-hoc-Erklärungstechniken vorgestellt, allerdings mit Blick auf die Strenge und die bekannten Probleme mit diesem etwas überbewerteten Teilbereich derML-Techniken.
Kapitel 3 befasst sich mit der Modellvalidierung, allerdings auf eine Art und Weise, die die Annahmen der Modelle und ihre Zuverlässigkeit in der Realität überprüft. Wir gehen auf die Grundlagen des Softwaretestens ein und behandeln die wichtigsten Aspekte der Modellprüfung.
Kapitel 4 gibt einen Überblick über die soziotechnischen Aspekte von Fairness und Voreingenommenheit in ML, bevor es zu den technischen Ansätzen zur Messung und Beseitigung von Voreingenommenheit übergeht. Kapitel 4 befasst sich dann ausführlich mit dem Testen von Vorurteilen, einschließlich Tests für disparate Auswirkungen und differenzielle Gültigkeit. Kapitel 4 befasst sich außerdem mit etablierten und konservativen Methoden zur Beseitigung von Vorurteilen sowie mit innovativeren dual-objektiven, kontradiktorischen und Pre-, In- und Postprocessing-Techniken.
Kapitel 5 schließt Teil I ab, indem es darlegt, wie man ML-Systeme überprüft. Es beginnt mit den Grundlagen der Computersicherheit und geht über in Diskussionen über gängige ML-Angriffe, gegnerische ML und robuste ML.
Jedes Kapitel in Teil I schließt mit einer Falldiskussion zu Themen wie der iBuying-Pleite von Zillow, dem A-Level-Skandal in Großbritannien, dem tödlichen Unfall eines selbstfahrenden Uber-Fahrzeugs, Twitters erster Bias-Bug-Bounty und ML-Evasion-Angriffen in der realen Welt ab. In jedem Kapitel wird auch der Abgleich zwischen dem Inhalt und dem NIST AI RMF beschrieben.
Teil II
Teil II vertieft die Ideen aus Teil I mit einer Reihe von ausführlichen Code-Beispielkapiteln. In Kapitel 6 werden Explainable Boosting Machines (EBMs), XGBoost und erklärbare KI-Techniken anhand eines einfachen Beispiels aus dem Bereich Konsumfinanzierung auf Herz und Nieren geprüft.
Kapitel 7 wendet Post-hoc-Erklärungstechniken auf einen PyTorch-Bildklassifikator an.
In Kapitel 8 werden wir unsere Konsumfinanzierungsmodelle auf Leistungsprobleme prüfen und in Kapitel 9 dasselbe für unseren Bildklassifikator tun.
Kapitel 10 enthält detaillierte Beispiele zum Testen und zur Beseitigung von Verzerrungen, und Kapitel 11 enthält Beispiele für ML-Angriffe und Gegenmaßnahmen für baumbasierte Modelle.
Teil III
Wir beenden das Buch in Kapitel 12 mit allgemeinen Ratschlägen, wie man bei risikoreichen ML-Anwendungen erfolgreich sein kann. Es geht nicht darum, schnell zu handeln und Dinge kaputt zu machen. Für einige Anwendungsfälle mit geringem Risiko mag es in Ordnung sein, einen schnellen und schmutzigen Ansatz anzuwenden. Aber je mehr ML reguliert wird und in risikoreichen Anwendungen zum Einsatz kommt, desto schwerwiegender sind die Folgen, wenn man etwas kaputt macht. Kapitel 12 schließt das Buch mit praktischen Ratschlägen für den Einsatz von ML in hochriskanten Szenarien ab.
Wir hoffen, mit der ersten Ausgabe dieses Textes eine legitime Alternative zu den undurchsichtigen und zeitlich komprimierten Arbeitsabläufen zu bieten, die heute in der ML-Branche üblich sind. Dieses Buch soll eine Reihe von Vokabeln, Ideen, Werkzeugen und Techniken bereitstellen, die es Praktikern ermöglichen, ihre sehr wichtige Arbeit bewusster zu gestalten.
Beispiel-Datensätze
In diesem Buch verwenden wir zwei Hauptdatensätze, um Techniken zu erklären oder Ansätze zu demonstrieren und ihre Ergebnisse zu diskutieren. Es handelt sich dabei um Beispieldatensätze, die sich nicht zum Trainieren von Modellen für risikoreiche Anwendungen eignen, aber sie sind gut bekannt und leicht zugänglich. Ihre Unzulänglichkeiten ermöglichen es uns außerdem, auf verschiedene Fallstricke bei Daten, Modellierung und Interpretation hinzuweisen. Wir werden in den folgenden Kapiteln immer wieder auf diese Datensätze zurückgreifen, also mach dich mit ihnen vertraut, bevor du dich in den Rest des Buches stürzt.
Taiwan Kreditdaten
Für die strukturierten Datenkapitel - Kapitel 6, 8, 10 und 11 - haben wireine leicht modifizierte Version der taiwanesischen Kreditdaten verwendet, die im Machine Learning Repository der University of California Irvine oder bei Kaggle verfügbar sind. Die Kreditkartenausfalldaten enthalten demografische und Zahlungsinformationen über Kreditkartenkunden in Taiwan aus dem Jahr 2005. Im Allgemeinen besteht das Ziel dieses Datensatzes darin, frühere Zahlungsstände (PAY_*
), frühere Zahlungsbeträge (PAY_AMT*
) und Rechnungsbeträge (BILL_AMT*
) als Inputs zu verwenden, um vorherzusagen, ob ein Kunde seiner nächsten Zahlung nachkommen wird (DELINQ_NEXT
= 0). Die Währungsbeträge werden in taiwanesischen Dollar angegeben. Wir haben diesem Datensatz die simulierten Marker SEX
und RACE
hinzugefügt, um Verzerrungstests und Bereinigungsansätze zu veranschaulichen. Wir verwenden die Zahlungsinformationen als Eingabemerkmale und folgen den bewährten Methoden zum Umgang mit Verzerrungen in ML-Systemen, indem wir die demografischen Informationen nicht als Modelleingaben verwenden. Das vollständige Datenwörterbuch ist in Tabelle P-1 zu finden.
Name | Rolle als Model | Ebene der Messung | Beschreibung |
---|---|---|---|
|
ID |
Int |
Eindeutiger Zeilenbezeichner |
|
Eingabe |
Schwimmer |
Betrag der zuvor gewährten Gutschrift |
|
Demografische Informationen |
Int |
1 = männlich; 2 = weiblich |
|
Demografische Informationen |
Int |
1 = Hispanoamerikanisch; 2 = Schwarz; 3 = Weiß;a 4 = Asiatisch |
|
Demografische Informationen |
Int |
1 = Graduiertenschule; 2 = Universität;3 = High School; 4 = andere |
|
Demografische Informationen |
Int |
1 = verheiratet; 2 = ledig; 3 = andere |
|
Demografische Informationen |
Int |
Alter in Jahren |
|
Eingabe |
Int |
Historie der vergangenen Zahlungen; |
|
Eingabe |
Schwimmer |
Betrag des Rechnungsabschlusses; |
|
Eingabe |
Schwimmer |
Betrag der vorherigen Zahlung; |
|
Ziel |
Int |
Ob die nächste Zahlung eines Kunden verspätet ist (1 = verspätet; 0 = pünktlich) |
a Es gibt eine anhaltende Debatte darüber, ob "Weiß" neben "Schwarz" großgeschrieben werden sollte, wenn es um rassische demografische Gruppen geht. In diesem Buch folgen wir im Allgemeinen dem Beispiel vieler maßgeblicher Stimmen im Verlagswesen und in der Wissenschaft und schreiben "Schwarz" groß, um die gemeinsame Geschichte und kulturelle Identität anzuerkennen. |
Wie die Leser in den folgenden Kapiteln sehen werden, enthält dieser Datensatz einige pathologische Fehler. Er ist zu klein, um brauchbare, leistungsstarke ML-Schätzer zu trainieren, und fast das gesamte Signal für DELINQ_NEXT
ist in PAY_0
kodiert. Im weiteren Verlauf des Buches werden wir versuchen, diese Probleme zu lösen und weitere aufzudecken.
Kaggle-Brust-Röntgen-Daten
Für die Deep Learning-Kapitel - Kapitel 6 und 9 -verwenden wir den Kaggle Chest X-Ray Images-Datensatz. Dieser Datensatz besteht aus etwa 5.800 Bildern, die in zwei Klassen eingeteilt sind: Lungenentzündung und normal. Diese Bezeichnungen wurden von menschlichen Fachleuten festgelegt. Bei den Bildern handelt es sich um de-identifizierte Röntgenbilder der Brust, die bei Routineuntersuchungen im Guangzhou Women and Children's Medical Center in Guangzhou, China, aufgenommen wurden. In Abbildung P-1 siehst du ein Beispiel für eine Lungenentzündung.
Die größten Probleme bei diesem Datensatz sind die geringe Größe - selbst für Transfer-Learning-Aufgaben -, die falsche Ausrichtung der Bilder im Datensatz, visuelle Artefakte, die zu verkürztem Lernen führen können, und die Notwendigkeit von Fachwissen zur Validierung der Modellierungsergebnisse. Wie bei den Kreditdaten aus Taiwan werden wir diese Probleme lösen und in den späteren Kapiteln dieses Buches weitere entdecken.
In diesem Buch verwendete Konventionen
In diesem Buch werden die folgenden typografischen Konventionen verwendet:
- Kursiv
-
Weist auf neue Begriffe oder wichtige Ideen hin.
Constant width
-
Wird für Programmlistings sowie innerhalb von Absätzen verwendet, um auf Programmelemente wie Variablen- oder Funktionsnamen, Datenbanken, Datentypen, Umgebungsvariablen, Anweisungen und Schlüsselwörter hinzuweisen.
Hinweis
Dieses Element steht für einen allgemeinen Hinweis oder eine Anregung.
Warnung
Dieses Element weist auf eine Warnung oder einen Warnhinweis hin.
Online Zahlen
Größere Farbversionen einiger Abbildungen findest du unter https://oreil.ly/MLHA-figures. Links zu den einzelnen Abbildungen findest du auch in den Bildunterschriften.
Code-Beispiele verwenden
Zusätzliches Material (Code-Beispiele, Übungen usw.) steht unter https://oreil.ly/machine-learning-high-risk-apps-code zum Download bereit .
Hinweis
Im Laufe der Zeit können sich die Code-Beispiele gegenüber den im Buch abgedruckten ändern.
Wenn du eine technische Frage oder ein Problem mit den Codebeispielen hast, sende bitte eine E-Mail an bookquestions@oreilly.com.
Dieses Buch soll dir helfen, deine Arbeit zu erledigen. Wenn in diesem Buch Beispielcode angeboten wird, darfst du ihn in deinen Programmen und deiner Dokumentation verwenden. Du musst uns nicht um Erlaubnis fragen, es sei denn, du reproduzierst einen großen Teil des Codes. Wenn du zum Beispiel ein Programm schreibst, das mehrere Teile des Codes aus diesem Buch verwendet, brauchst du keine Erlaubnis. Der Verkauf oder die Verbreitung von Beispielen aus O'Reilly-Büchern erfordert jedoch eine Genehmigung. Die Beantwortung einer Frage mit einem Zitat aus diesem Buch und einem Beispielcode erfordert keine Genehmigung. Wenn du einen großen Teil des Beispielcodes aus diesem Buch in die Dokumentation deines Produkts aufnimmst, ist eine Genehmigung erforderlich.
Wir freuen uns über eine Namensnennung, verlangen sie aber in der Regel nicht. Eine Quellenangabe umfasst normalerweise den Titel, den Autor, den Verlag und die ISBN. Ein Beispiel: "Machine Learning for High-Risk Applications " von Patrick Hall, James Curtis, und Parul Pandey (O'Reilly). Copyright 2023 Patrick Hall, James Curtis, and Parul Pandey, 978-1-098-10243-2."
Wenn du der Meinung bist, dass die Verwendung von Code-Beispielen nicht unter die Fair-Use-Regelung oder die oben genannte Erlaubnis fällt, kannst du uns gerne unter permissions@oreilly.com kontaktieren .
O'Reilly Online Learning
Hinweis
Seit mehr als 40 Jahren bietet O'Reilly Media Schulungen, Wissen und Einblicke in Technologie und Wirtschaft, um Unternehmen zum Erfolg zu verhelfen.
Unser einzigartiges Netzwerk von Experten und Innovatoren teilt sein Wissen und seine Erfahrung durch Bücher, Artikel und unsere Online-Lernplattform. Die Online-Lernplattform von O'Reilly bietet dir On-Demand-Zugang zu Live-Trainingskursen, ausführlichen Lernpfaden, interaktiven Programmierumgebungen und einer umfangreichen Text- und Videosammlung von O'Reilly und über 200 anderen Verlagen. Weitere Informationen erhältst du unter http://oreilly.com.
Wie du uns kontaktierst
Bitte richte Kommentare und Fragen zu diesem Buch an den Verlag:
- O'Reilly Media, Inc.
- 1005 Gravenstein Highway Nord
- Sebastopol, CA 95472
- 800-998-9938 (in den Vereinigten Staaten oder Kanada)
- 707-829-0515 (international oder lokal)
- 707-829-0104 (Fax)
Wir haben eine Webseite für dieses Buch, auf der wir Errata, Beispiele und zusätzliche Informationen auflisten. Du kannst diese Seite unter https://oreil.ly/machine-learning-high-risk-apps aufrufen .
Schreib eine E-Mail an bookquestions@oreilly.com, um Kommentare oder technische Fragen zu diesem Buch zu stellen.
Neuigkeiten und Informationen über unsere Bücher und Kurse findest du unter https://oreilly.com.
Finde uns auf LinkedIn: https://linkedin.com/company/oreilly-media
Folge uns auf Twitter: https://twitter.com/oreillymedia
Schau uns auf YouTube: https://youtube.com/oreillymedia
Danksagungen
Die Autoren danken unseren Redakteuren und Produktionsmitarbeitern bei O'Reilly, insbesondere Michele Cronin und Gregory Hyman, unserer Lektorin Liz Wheeler und unseren Akquisitionsredakteuren Rebecca Novack und Nicole Butterfield. Unser Dank gilt auch unseren technischen Prüfern, Navdeep Gill, Collin Starkweather, Hariom Tatstat und Laura Uzcátegui.
Patrick Hall
Danke an Lisa und Dylan für ihre Liebe und Unterstützung während des langen Schreib- und Bearbeitungsprozesses. Mein Dank gilt auch meinen Kolleginnen und Kollegen am Institute for Advanced Analytics, SAS Institute, der George Washington School of Business, H2O.ai, SolasAI, der AI Incident Database, NIST und BNH.AI.
James Curtis
Für meine Frau Lindsey, deren unnachgiebige Liebe das Fundament meines Lebens ist. Meine Kinder Isaac und Micah haben mir beim Schreiben dieses Buches zwar nicht viel geholfen, aber ich bin ihnen trotzdem dankbar. Schließlich muss ich meinen ehemaligen Kollegen bei SolasAI, insbesondere Nick und Chris, für die vielen Stunden aufschlussreicher Diskussionen danken.
Parul Pandey
Ich bin unglaublich dankbar, dass ich während des Schreibens dieses Buches die Liebe und Unterstützung meines Mannes Manoj und meines Sohnes Agrim erfahren habe. Beide haben mich nicht nur ermutigt, diese Mammutaufgabe in Angriff zu nehmen, sondern hatten auch großes Verständnis dafür, wenn ich stundenlang in meinem Arbeitszimmer an dem Buch gearbeitet habe.
Get Maschinelles Lernen für hochriskante Anwendungen now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.