Generative Datenintelligenz

Experten warnen vor einer wachsenden Bedrohung des Journalismus im Senat durch KI

Datum:

Die Anhörung des Unterausschusses für Datenschutz, Technologie und Recht des Senats zum Thema „Künstliche Intelligenz und die Zukunft des Journalismus“ fand am 10. Januar 2024 im US-Kapitol in Washington, D.C. statt.

Experten warnten bei der Anhörung am 10. Januar vor der Bedrohung, die künstliche Intelligenz (KI) für den Journalismus darstellt. Nach Aussage von Medienmanagern und akademischen Experten vor dem Justizunterausschuss für Datenschutz, Technologie und Recht des Senats trägt KI dazu bei großer technologiegetriebener Niedergang des Journalismus.

Darüber hinaus sprachen sie darüber, wie Probleme in Bezug auf geistiges Eigentum entstehen, wenn KI-Modelle für die Arbeit eines professionellen Journalisten trainiert werden. Sie warnten auch vor der zunehmenden Gefahr von Fehlinformationen durch KI.

Kopierschutz Probleme

Generative KI-Systeme, die Bilder, Texte oder beliebige Medientypen generieren können, müssen mithilfe riesiger Datenmengen trainiert werden. Der große KI-Entwickler OpenAI hat sich mit einer in den USA ansässigen gemeinnützigen Nachrichtenagentur, Associated Press, zusammengetan, um Zugriff auf hochwertige Textdaten zu erhalten. Sie haben auf einen Teil des AP-Archivs zugegriffen, um die Produkte von OpenAI zu nutzen.

Ebenso arbeitet OpenAI mit einem multinationalen Medienunternehmen, Axel Springer, zusammen. Dies ist ein Teil davon, in dem ChatGPT eine Zusammenfassung von Artikeln von Nachrichtenagenturen von Axel Springer bereitstellt. ChatGPT stellt auch Links und Quellennachweise bereit. Allerdings haben nicht alle Nachrichtenagenturen ähnliche Angebote. Die New York Times verklagte OpenAI und seinen Großinvestor Microsoft.

Laut der Klage berichtet die New York Times argumentiert, dass OpenAI-Modelle auf ihren Materialien trainiert wurden. Außerdem sagten sie, dass OpenAI-Modelle ein Konkurrenzprodukt anboten, was gesetzliche und tatsächliche Schäden in Milliardenhöhe verursacht habe. Infolgedessen reagierte OpenAI am 8. Januar mit einem Blogbeitrag auf die Klage. Der Blogbeitrag bestritt die rechtlichen Ansprüche der Times und verwies auf ihre verschiedenen Maßnahmen zur Unterstützung eines Gesundheitsnachrichten-Ökosystems.

Bezeichnenderweise ist die Klage der New York Times unter den gegen KI-Entwickler eingeleiteten Urheberrechtsklagen der Fall mit dem höchsten Aufsehen. Die Komikerin Sarah Silverman und die Autoren Christopher Golden und Richard Kadrey verklagten OpenAI und Meta im Juli 2023 vor Gericht. Sie wurden verklagt, weil sie ihre KI-Modelle ohne Erlaubnis auf ihre Texte trainierten.

Ebenso verklagten die Künstler Kelly McKernan, Sarah Andersen und Karla Orti im Januar 2023 Midjourney, Stability AI und DeviantArt. Diese Unternehmen entwickelt bildgenerierende KI-Modelle und wurden verklagt, weil sie KI-Modelle in ihrer Arbeit trainierten. Allerdings wies der US-Bezirksrichter William Orrick Teile der Klage im Oktober ab, und die Kläger änderten die Klage ab und reichten sie im November erneut ein.

Roger Lynch, CEO von Condé Nast, argumentiert, dass generative KI-Tools mit gestohlenen Gütern gebaut wurden. Condé Nast ist ein Medienunternehmen, das mehrere Publikationen besitzt, darunter The New Yorker, Kabelgebunden und GQ. Bei der Anhörung forderte er eine „Intervention des Kongresses“, um sicherzustellen, dass KI-Entwickler Verlage für ihre Inhalte bezahlen.

Darüber hinaus sagte Curtis LeGeyt, Präsident und CEO des Handelsverbands National Association of Broadcasters, dass die Gesetzesverhandlungen verfrüht seien und argumentierte, dass der derzeitige Urheberrechtsschutz gelten sollte. Er sagte, sie sollten dafür sorgen, dass der Markt funktioniert, da Klarheit darüber bestehe, was das aktuelle Gesetz für generative KI gilt.

Bedenken hinsichtlich Fehlinformationen

Darüber hinaus LeGeyt gewarnt die Senatoren über die Gefahr, die durch KI erzeugte Fehlinformationen für den Journalismus darstellen. Er fuhr fort, dass der Einsatz von KI zur Manipulation, Manipulation oder Veruntreuung des Abbilds vertrauenswürdiger Persönlichkeiten das Risiko birgt, Fehlinformationen oder Betrug zu verbreiten.

spot_img

Neueste Intelligenz

spot_img