KI Neuigkeiten
07 Nov. 2025
Read 15 min
Umfrage künstliche Intelligenz Maryland 2025 zeigt Zwiespalt
Umfrage künstliche Intelligenz Maryland 2025: Nutzung hoch, Mehrheit fordert klare Regeln und Schutz.
Ergebnisse der Umfrage künstliche Intelligenz Maryland 2025 im Überblick
- 54% haben „viel“ über KI gehört oder gelesen, 32% „einiges“, 11% „nur ein wenig“.
- Unter den Personen mit zumindest etwas Kenntnis über KI erwarten die meisten negative Auswirkungen auf die Gesellschaft; rund drei von zehn sehen positive Effekte.
- Mehr als 70% nutzen KI zumindest gelegentlich.
- 43% verwenden KI-Tools wöchentlich oder häufiger.
- 9% greifen mehrmals im Monat darauf zu.
- 20% nutzen KI seltener als einmal im Monat, 26% gar nicht.
- Größte Sorgen: Desinformation/Propaganda (81%), Identitätsdiebstahl/Imitation (78%), Folgen für Bildung/Kritikfähigkeit (61%), Rückgang sozialer Kontakte (58%), Jobverdrängung (55%), Umweltbelastung durch Rechenzentren (51%), Gesichtserkennung durch Polizei (44%).
Bekanntheit und Nutzung
Die Umfrage zeigt, wie schnell KI in den Alltag gelangt ist. Eine klare Mehrheit in Maryland hat schon von KI gehört oder liest regelmäßig darüber. Das erklärt, warum die Nutzung so verbreitet ist: 43% arbeiten wöchentlich oder öfter mit KI, weitere 9% mehrmals im Monat. Dazu kommen 20%, die seltener als einmal monatlich zugreifen. Ein gutes Viertel nutzt überhaupt keine KI. Dieser Mix zeigt eine typische Frühphase der Technologieverbreitung: Viele testen und integrieren KI in Aufgaben wie Texten, Suchen, Zusammenfassen oder Ideenfinden. Gleichzeitig bleibt eine große Minderheit skeptisch oder sieht keinen Bedarf. Bekanntheit befeuert Nutzung – aber nicht automatisch Vertrauen.Stimmungslage: wachsam statt euphorisch
Die Tonlage ist nüchtern. Mileah Kromer beschreibt die Haltung als breit geteilte Vorsicht. Menschen quer durch die politischen Lager sehen Risiken und sind aufmerksam. Das positive Potenzial von KI bestreiten viele nicht. Doch für die meisten überwiegen derzeit die Sorgen vor Fehlentwicklungen und Kontrollverlust. Dass drei von zehn Menschen positive Auswirkungen erwarten, passt zum Muster: KI kann helfen, schneller zu arbeiten, Informationen zu finden und Routine zu erledigen. Aber die restliche Mehrheit sieht mehr Schattenseiten als Licht – zumindest solange klare Regeln, Nachweise und Schutzmechanismen fehlen.Wovor sich die Menschen sorgen
Die Sorge-Schwerpunkte sind deutlich. Sie drehen sich weniger um Science-Fiction, sondern um konkrete Alltagsrisiken: Falsche Informationen, Betrug, Sicherheit, Bildung, Beziehungen, Arbeit und Umwelt.Desinformation und politische Propaganda (81%)
Die größte Sorge ist die Verbreitung von Desinformation. KI kann täuschend echte Texte, Bilder, Videos und Tonspuren erzeugen. Damit wächst das Risiko von Falschmeldungen und manipulierten Kampagnen. Dass 81% dies als Problem sehen, zeigt ein Grundbedürfnis nach verlässlichen Informationen – besonders in Wahlkämpfen und öffentlichen Debatten. Vertrauen in digitale Inhalte steht auf dem Prüfstand.Identitätsdiebstahl und Imitation (78%)
Fast ebenso viele fürchten Betrug und Missbrauch persönlicher Daten. Deepfakes, gefälschte Anrufe oder E-Mails und nachgeahmte Stimmen erhöhen das Risiko, dass Kriminelle Menschen hintergehen. Wer kann sicher sein, dass Bild, Stimme oder Nachricht echt sind? Diese Unsicherheit trifft Privatleute ebenso wie Unternehmen und Behörden.Auswirkungen auf Bildung und kritisches Denken (61%)
Mehr als sechs von zehn sehen Risiken für Lernprozesse. Wenn KI Texte schreibt oder Hausaufgaben löst, droht der Verlust eigener Übung. Kritikfähigkeit, Quellenprüfung und eigenständiges Denken könnten leiden, wenn Schulen und Lernende keine klaren Leitlinien haben. Die Herausforderung ist, KI als Werkzeug sinnvoll einzubinden, ohne die Lernziele zu schwächen.Rückgang von Beziehungen und Gesprächen (58%)
Über die Hälfte befürchtet weniger echte Begegnungen. Wenn Chats, Assistenten und automatisierte Antworten Alltag prägen, können Tiefe und Nuancen in Gesprächen fehlen. Beziehungen leben von Empathie, Pausen, Blicken und Zwischentönen – Dinge, die digitale Systeme nur begrenzt erfassen. Die Sorge betrifft Familie, Freundeskreis und Arbeitsumfeld.Verdrängung von Jobs (55%)
Mehr als jede oder jeder Zweite erwartet Verschiebungen im Arbeitsmarkt. KI nimmt Routinen ab, kann aber Aufgaben ersetzen, die bisher Menschen erledigt haben. Das erzeugt Druck: Wer muss sich neu orientieren? Welche Berufe wandeln sich? Welche Kompetenzen zählen morgen? Die Antworten sind offen, der Veränderungsdruck ist spürbar.Umweltbelastung durch Rechenzentren (51%)
Mehr als die Hälfte blickt auf Energieverbrauch, Kühlung und Flächenbedarf von Rechenzentren. KI braucht Rechenleistung. Das hat Folgen für Stromnetze, Wasserverbrauch und Emissionen – je nach Infrastruktur und Energiequelle. Die Debatte um nachhaltige Digitalisierung ist damit in der Mitte der Gesellschaft angekommen.Gesichtserkennung durch die Polizei (44%)
Weniger als die Hälfte nennt polizeiliche Gesichtserkennung als Sorge. Das bedeutet nicht, dass das Thema unwichtig ist, aber es steht hinter den anderen Risiken zurück. Mögliche Gründe: Viele Alltagssorgen (Betrug, Fakes) sind unmittelbarer spürbar. Zugleich kann es sein, dass Menschen Regeln oder Grenzen für den Einsatz erwarten, wissen es aber noch nicht einzuordnen.Was die Umfrage künstliche Intelligenz Maryland 2025 für Politik und Gesellschaft bedeutet
Die Zahlen ergeben ein Muster: KI ist im Alltag angekommen, doch das Sicherheitsgefühl hinkt hinterher. Die Menschen wollen Nutzen, aber sie verlangen Schutz. Daraus folgen klare Aufgaben für Politik, Verwaltung, Wirtschaft, Bildung und Medien:- Transparenz erhöhen: Inhalte kennzeichnen, die mit KI erstellt wurden, und Herkunft erklären.
- Schutz vor Betrug stärken: Verfahren zur Verifikation von Identität, Bildern, Videos und Audios fördern.
- Medienkompetenz ausbauen: Schulen, Hochschulen und Weiterbildungseinrichtungen brauchen klare Leitlinien für den KI-Einsatz.
- Arbeitsmarkt begleiten: Fortbildung, Umschulung und neue Jobprofile frühzeitig angehen.
- Nachhaltigkeit sichern: Rechenzentren energieeffizient planen, erneuerbare Energien nutzen, Wasserverbrauch beachten.
- Regeln für Behördeneinsatz präzisieren: Grenzen, Kontrolle und Beschwerdewege definieren, wenn KI in der öffentlichen Sicherheit genutzt wird.
Nutzung ja – aber mit Leitplanken
Die hohe Nutzungsrate zeigt, dass KI als Werkzeug überzeugt. Menschen wollen schneller recherchieren, Texte strukturieren oder Ideen prüfen. Damit aus schneller nicht auch unkritischer wird, braucht es Leitplanken: klare Quellen, Erklärungen zu Trainingsdaten und Hinweise auf Grenzen. Vertrauen entsteht, wenn Anbieter und Anwender offenlegen, was KI kann – und was nicht.Desinformation ins Leere laufen lassen
Die größte Sorge ist Desinformation. Der beste Schutz ist eine Mischung aus Technik und Bildung:- Erkennbarkeit: Wasserzeichen, Metadaten und robuste Nachweise für Echtheit.
- Prävention: Plattformregeln, die manipulierte Inhalte schneller kennzeichnen oder einschränken.
- Aufklärung: Einfache Checks, wie man Fakes erkennt – für Schulen, Vereine, Unternehmen.
Methodik auf einen Blick
Die Ergebnisse stammen aus einer UMBC-Erhebung, erstellt für das Institute of Politics an der University of Maryland, Baltimore County. Befragt wurden 810 Erwachsene in Maryland, darunter 757 registrierte Wählerinnen und Wähler. Die Erhebung fand vom 21. bis 25. Oktober statt. Der statistische Fehlerspielraum liegt insgesamt bei 3,4%, unter registrierten Wählenden bei 3,5%. Es ist die dritte Veröffentlichung in einer Serie von Umfrageergebnissen.Konsequenzen für Bildung, Wirtschaft und Medien
Bildung: Lernen mit, nicht gegen KI
Die Sorge um kritisches Denken legt nahe, dass Bildungseinrichtungen klare Regeln definieren sollten:- Transparente Aufgaben: Was ist erlaubt, was nicht? Wie kennzeichnen Lernende KI-Hilfe?
- Prüfkompetenz: Quellenarbeit, Faktencheck, Vergleiche zwischen KI-Ausgabe und Primärquelle.
- Kompetenzaufbau: KI als Tutor für Übung, Zusammenfassung und Ideen – aber mit Reflexion.
Wirtschaft: Produktivität und Vertrauen balancieren
Unternehmen, die KI einsetzen, sollten beides liefern: Effizienz und Klarheit.- Richtlinien: Welche Daten dürfen in KI-Tools, welche nicht?
- Qualitätssicherung: Ergebnisse prüfen, Quellen dokumentieren, Haftungsfragen klären.
- Weiterbildung: Mitarbeitende fortlaufend schulen, Aufgabenprofile anpassen.
Medien: Belegen statt behaupten
Da Desinformation die größte Sorge ist, gewinnen redaktionelle Standards an Gewicht:- Belege verlinken und Quellen offenlegen.
- KI-generierte Inhalte deutlich kennzeichnen.
- Korrekturen sichtbar machen.
Einordnung und Ausblick
Die Umfrage künstliche Intelligenz Maryland 2025 macht eine Zeitenwende sichtbar: KI ist allgegenwärtig, aber die Spielregeln sind noch im Aufbau. Menschen reagieren pragmatisch. Sie nutzen, was hilft, und sie benennen, was schützt. In dieser Haltung liegt eine Chance. Skepsis kann Fortschritt verbessern, wenn sie zu klaren Standards führt. Brisant bleibt, dass unmittelbare Risiken – Desinformation und Identitätsdiebstahl – an der Spitze stehen. Das ist nachvollziehbar: Diese Gefahren treffen private Kommunikation, gesellschaftliche Debatten und demokratische Prozesse direkt. Ebenso wichtig ist der Blick auf Bildung, Arbeit und Umwelt. Hier entscheidet sich, wie nachhaltig der digitale Wandel wird. Wer die Ergebnisse liest, kann drei einfache Lehren ziehen:- Transparenz zuerst: Sichtbar machen, wann KI im Spiel ist.
- Prüfen lernen: Faktencheck und Quellenarbeit als Grundfertigkeiten.
- Kompetenzen stärken: Vom Klassenzimmer bis ins Büro gezielt weiterbilden.
For more news: Click Here
FAQ
Contents