/ en / Traditional / help

Beats Biblionetz - Aussagen

Künstliche Intelligenz ist ein ungeeigneter Begriff

Dieses Biblionetz-Objekt existiert erst seit Januar 2024. Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden. Somit kann es sein, dass diese Seite sehr lückenhaft ist.

iconErklärung als Video

iconBemerkungen

Whatever the merit of the scientific aspirations originally encompassed by the term “artificial intelligence,” it’s a phrase that now functions in the vernacular primarily to obfuscate, alienate, and glamorize.
Von Emily Tucker im Text Artifice and Intelligence (2022)
Martin VetterliKünstliche Intelligenz ist ein Marketingbegriff (lacht). Es gibt keine künstliche Intelligenz. Zumindest bis jetzt noch nicht. Ich bevorzuge den Begriff «maschinelles Lernen», so wie die meisten Leute, die daran forschen.
Von Martin Vetterli im Text «Jeder muss ein Picasso werden» (2023)
Katharina A. Zweig

Wir sollten nicht allgemein über KI diskutieren, sondern einzelne Systeme anschauen. Ich gehe doch auch nicht auf eine Baustelle und nenne alles vom Nagel über die Zange bis zum Kran »künstliche Kraft«.

Von Katharina A. Zweig im Text Können wir künstlicher Intelligenz vertrauen, Frau Zweig? (2023)
Jaron LanierZunächst mag ich den Begriff »künstliche Intelligenz« gar nicht. Er wird so inflationär gebraucht. Letztens hat jemand auf einer Konferenz seinen Taschenrechner hochgehalten und gesagt, da sei künstliche Intelligenz drin. Meine Güte! Insofern bedeutet das Wort nichts. Rein gar nichts!
Von Jaron Lanier im Text »Etwas größenwahnsinnig« (2023)
Neil SelwynIndeed, some elements of the computer science community have recently begun to deliberately distance themselves from the term ‘AI’ and revert to using labels that better describe the types of machine learning and algorithmic developments that underpin their work (see Jordon in Pretz, 2021). Elsewhere, policymakers and industry actors are also beginning to turn to alternate terms, such as ‘automated decision making’ and ‘algorithmic forecasting.’ Such linguistic turns reinforce Emily Tucker’s (2022, n.p.) assertation that “whatever the merit of the scientific aspirations originally encompassed by the term ‘artificial intelligence,’ it [has become] a phrase that now functions in the vernacular primarily to obfuscate, alienate and glamorize.”
Von Neil Selwyn im Text On the Limits of Artificial Intelligence (AI) in Education (2024)
The term ‘artificial intelligence’ lacks clarity, mystifies the actual operations of technologies, and implies much more capability and ‘magic’ than most products warrant. In education it important to separate different forms of AI that have appeared over the last half-century. At the current time, most discussion about AI in education concerns data systems that collect information about students for analysis and prediction, often previously referred to as ‘learning analytics’; and ‘generative AI’ applications like chatbot tutors that are intended to support students’ learning through automated dialogue and prompts. These technologies have their own histories, contexts of production and modes of operation that should be foregrounded over generalized claims that obscure the actual workings and effects of AI applications, in order for their potential, limitations, and implications for education to be accurately assessed.
Von Ben Williamson im Text AI in education is a public problem (2024)

Um die schwammige Verwendung von künstlicher Intelligenz im gesellschaftlichen Diskurs zu charakterisieren, schlage ich den Begriff der Zeitgeist-KI vor. In dem Zusammenhang kann der Begriff KI dann von Big Data und Statistik über Software, IT, Digitalisierung, Algorithmen, Roboter, Apps und IKT bis hin zum Internet in etwa alles bedeuten. Auch im politischen Diskurs wird pauschal von „künstlicher Intelligenz“ gesprochen, egal, ob es um selbstfahrende Autos, Roboterhunde, automatisierte Entscheidungssysteme, Klimamodelle, automatisierte Arbeitsmarktvermittlungssysteme, Tischreservierungssysteme oder smarte Verkehrsleitsysteme geht; beizeiten werden auch traditionelle Informatikprodukte mit dem Label versehen. Alles ist „KI“, obwohl in alledem wenig bis keine künstliche Intelligenz steckt. In einem aktuellen Bericht zum Stand von KI in der öffentlichen Verwaltung heißt es etwa, „dass oftmals Projekte als KI-basiert bezeichnet würden, jedoch de facto konventionelle IKT-Anwendungen nutzen“. Aber auch in Wissenschaft und Wirtschaft ist jenes schwammige Verständnis anzutreffen. Um eine reflektierte gesellschaftliche Auseinandersetzung mit künstlicher Intelligenz zu ermöglichen, muss dieses Verständnis expliziert, mithin aufgelöst werden.

Von Rainer Rehak im Text Zwischen Macht und Mythos (2024)

Instead of using the terms “Artificial intelligence, “AI,” and “machine learning,” the Privacy Center will:

  1. Be as specific as possible about what the technology in question is and how it works. For example, instead of saying “face recognition uses artificial intelligence,” we might say something like “tech companies use massive data sets to train algorithms to match images of human faces.” Where a complete explanation is disruptive to our larger argument, or beyond our expertise, we will point readers to external sources.
  2. Identify any obstacles to our own understanding of a technology that result from failures of corporate or government transparency. For example, instead of saying “employers are using AI to analyze workers’ emotions” we might say “employers are using software advertised as having the ability to label workers’ emotions based on images of them from photographs and video. We don’t know how the labeling process works because the companies that sell these products claim that information as a trade secret.” 
  3. Name the corporations responsible for creating and spreading the technological product. For example, instead of saying “states use AI to verify the identities of people applying for unemployment benefits,” we might say “states are contracting with a company called ID.me, which uses Amazon Rekognition, a face matching algorithm, to verify the identities of people applying for unemployment benefits.” 
  4. Attribute agency to the human actors building and using the technology, never to the technology itself. This needn’t always require excessive verbiage. For example, we might substitute “machine training,” which sounds like something a person does with a machine, for “machine learning” which sounds like a computer doing something on its own.

We don’t yet know exactly what will happen to our thinking and writing without these crutches, but finding out is part of the point.

Von Emily Tucker im Text Artifice and Intelligence (2022)

iconVorträge von Beat mit Bezug

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconErwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.