Insights KI Neuigkeiten Umfrage künstliche Intelligenz Maryland 2025 zeigt Zwiespalt
post

KI Neuigkeiten

07 Nov. 2025

Read 15 min

Umfrage künstliche Intelligenz Maryland 2025 zeigt Zwiespalt

Umfrage künstliche Intelligenz Maryland 2025: Nutzung hoch, Mehrheit fordert klare Regeln und Schutz.

Viele Menschen in Maryland kennen KI, sind aber skeptisch. Die Umfrage künstliche Intelligenz Maryland 2025 zeigt: Fast alle haben von KI gehört, mehr als 70% nutzen sie zumindest gelegentlich. Größte Sorgen sind Desinformation, Identitätsdiebstahl, Einflüsse auf Bildung, Beziehungen, Arbeitsplätze und Umwelt. Nutzung ja – aber mit Vorsicht. Die Zahlen kommen aus einer repräsentativen Erhebung, die für das Institute of Politics an der University of Maryland, Baltimore County (UMBC) erstellt wurde. Die Ergebnisse zeichnen ein klares Bild: Bekanntheit ist hoch, Vertrauen ist begrenzt. Die Umfrage künstliche Intelligenz Maryland 2025 zeigt, dass Menschen parteiübergreifend skeptisch sind. Laut Studienleiterin Mileah Kromer teilen Demokratinnen und Demokraten, Republikanerinnen und Republikaner sowie Unabhängige ähnliche Bedenken. Trotz dieser Skepsis bleibt die Nutzung hoch: Viele greifen regelmäßig zu KI-Tools, vor allem für Alltag und Arbeit.

Ergebnisse der Umfrage künstliche Intelligenz Maryland 2025 im Überblick

  • 54% haben „viel“ über KI gehört oder gelesen, 32% „einiges“, 11% „nur ein wenig“.
  • Unter den Personen mit zumindest etwas Kenntnis über KI erwarten die meisten negative Auswirkungen auf die Gesellschaft; rund drei von zehn sehen positive Effekte.
  • Mehr als 70% nutzen KI zumindest gelegentlich.
  • 43% verwenden KI-Tools wöchentlich oder häufiger.
  • 9% greifen mehrmals im Monat darauf zu.
  • 20% nutzen KI seltener als einmal im Monat, 26% gar nicht.
  • Größte Sorgen: Desinformation/Propaganda (81%), Identitätsdiebstahl/Imitation (78%), Folgen für Bildung/Kritikfähigkeit (61%), Rückgang sozialer Kontakte (58%), Jobverdrängung (55%), Umweltbelastung durch Rechenzentren (51%), Gesichtserkennung durch Polizei (44%).

Bekanntheit und Nutzung

Die Umfrage zeigt, wie schnell KI in den Alltag gelangt ist. Eine klare Mehrheit in Maryland hat schon von KI gehört oder liest regelmäßig darüber. Das erklärt, warum die Nutzung so verbreitet ist: 43% arbeiten wöchentlich oder öfter mit KI, weitere 9% mehrmals im Monat. Dazu kommen 20%, die seltener als einmal monatlich zugreifen. Ein gutes Viertel nutzt überhaupt keine KI. Dieser Mix zeigt eine typische Frühphase der Technologieverbreitung: Viele testen und integrieren KI in Aufgaben wie Texten, Suchen, Zusammenfassen oder Ideenfinden. Gleichzeitig bleibt eine große Minderheit skeptisch oder sieht keinen Bedarf. Bekanntheit befeuert Nutzung – aber nicht automatisch Vertrauen.

Stimmungslage: wachsam statt euphorisch

Die Tonlage ist nüchtern. Mileah Kromer beschreibt die Haltung als breit geteilte Vorsicht. Menschen quer durch die politischen Lager sehen Risiken und sind aufmerksam. Das positive Potenzial von KI bestreiten viele nicht. Doch für die meisten überwiegen derzeit die Sorgen vor Fehlentwicklungen und Kontrollverlust. Dass drei von zehn Menschen positive Auswirkungen erwarten, passt zum Muster: KI kann helfen, schneller zu arbeiten, Informationen zu finden und Routine zu erledigen. Aber die restliche Mehrheit sieht mehr Schattenseiten als Licht – zumindest solange klare Regeln, Nachweise und Schutzmechanismen fehlen.

Wovor sich die Menschen sorgen

Die Sorge-Schwerpunkte sind deutlich. Sie drehen sich weniger um Science-Fiction, sondern um konkrete Alltagsrisiken: Falsche Informationen, Betrug, Sicherheit, Bildung, Beziehungen, Arbeit und Umwelt.

Desinformation und politische Propaganda (81%)

Die größte Sorge ist die Verbreitung von Desinformation. KI kann täuschend echte Texte, Bilder, Videos und Tonspuren erzeugen. Damit wächst das Risiko von Falschmeldungen und manipulierten Kampagnen. Dass 81% dies als Problem sehen, zeigt ein Grundbedürfnis nach verlässlichen Informationen – besonders in Wahlkämpfen und öffentlichen Debatten. Vertrauen in digitale Inhalte steht auf dem Prüfstand.

Identitätsdiebstahl und Imitation (78%)

Fast ebenso viele fürchten Betrug und Missbrauch persönlicher Daten. Deepfakes, gefälschte Anrufe oder E-Mails und nachgeahmte Stimmen erhöhen das Risiko, dass Kriminelle Menschen hintergehen. Wer kann sicher sein, dass Bild, Stimme oder Nachricht echt sind? Diese Unsicherheit trifft Privatleute ebenso wie Unternehmen und Behörden.

Auswirkungen auf Bildung und kritisches Denken (61%)

Mehr als sechs von zehn sehen Risiken für Lernprozesse. Wenn KI Texte schreibt oder Hausaufgaben löst, droht der Verlust eigener Übung. Kritikfähigkeit, Quellenprüfung und eigenständiges Denken könnten leiden, wenn Schulen und Lernende keine klaren Leitlinien haben. Die Herausforderung ist, KI als Werkzeug sinnvoll einzubinden, ohne die Lernziele zu schwächen.

Rückgang von Beziehungen und Gesprächen (58%)

Über die Hälfte befürchtet weniger echte Begegnungen. Wenn Chats, Assistenten und automatisierte Antworten Alltag prägen, können Tiefe und Nuancen in Gesprächen fehlen. Beziehungen leben von Empathie, Pausen, Blicken und Zwischentönen – Dinge, die digitale Systeme nur begrenzt erfassen. Die Sorge betrifft Familie, Freundeskreis und Arbeitsumfeld.

Verdrängung von Jobs (55%)

Mehr als jede oder jeder Zweite erwartet Verschiebungen im Arbeitsmarkt. KI nimmt Routinen ab, kann aber Aufgaben ersetzen, die bisher Menschen erledigt haben. Das erzeugt Druck: Wer muss sich neu orientieren? Welche Berufe wandeln sich? Welche Kompetenzen zählen morgen? Die Antworten sind offen, der Veränderungsdruck ist spürbar.

Umweltbelastung durch Rechenzentren (51%)

Mehr als die Hälfte blickt auf Energieverbrauch, Kühlung und Flächenbedarf von Rechenzentren. KI braucht Rechenleistung. Das hat Folgen für Stromnetze, Wasserverbrauch und Emissionen – je nach Infrastruktur und Energiequelle. Die Debatte um nachhaltige Digitalisierung ist damit in der Mitte der Gesellschaft angekommen.

Gesichtserkennung durch die Polizei (44%)

Weniger als die Hälfte nennt polizeiliche Gesichtserkennung als Sorge. Das bedeutet nicht, dass das Thema unwichtig ist, aber es steht hinter den anderen Risiken zurück. Mögliche Gründe: Viele Alltagssorgen (Betrug, Fakes) sind unmittelbarer spürbar. Zugleich kann es sein, dass Menschen Regeln oder Grenzen für den Einsatz erwarten, wissen es aber noch nicht einzuordnen.

Was die Umfrage künstliche Intelligenz Maryland 2025 für Politik und Gesellschaft bedeutet

Die Zahlen ergeben ein Muster: KI ist im Alltag angekommen, doch das Sicherheitsgefühl hinkt hinterher. Die Menschen wollen Nutzen, aber sie verlangen Schutz. Daraus folgen klare Aufgaben für Politik, Verwaltung, Wirtschaft, Bildung und Medien:
  • Transparenz erhöhen: Inhalte kennzeichnen, die mit KI erstellt wurden, und Herkunft erklären.
  • Schutz vor Betrug stärken: Verfahren zur Verifikation von Identität, Bildern, Videos und Audios fördern.
  • Medienkompetenz ausbauen: Schulen, Hochschulen und Weiterbildungseinrichtungen brauchen klare Leitlinien für den KI-Einsatz.
  • Arbeitsmarkt begleiten: Fortbildung, Umschulung und neue Jobprofile frühzeitig angehen.
  • Nachhaltigkeit sichern: Rechenzentren energieeffizient planen, erneuerbare Energien nutzen, Wasserverbrauch beachten.
  • Regeln für Behördeneinsatz präzisieren: Grenzen, Kontrolle und Beschwerdewege definieren, wenn KI in der öffentlichen Sicherheit genutzt wird.
Diese Punkte spiegeln die größte Sorge vieler Menschen wider: die Angst vor Kontrollverlust. Wer Regeln kennt, fühlt sich sicherer. Wer weiß, wie Inhalte geprüft werden, lässt sich weniger leicht täuschen. Und wer Optionen zur Weiterbildung hat, blickt gelassener auf den Wandel am Arbeitsplatz.

Nutzung ja – aber mit Leitplanken

Die hohe Nutzungsrate zeigt, dass KI als Werkzeug überzeugt. Menschen wollen schneller recherchieren, Texte strukturieren oder Ideen prüfen. Damit aus schneller nicht auch unkritischer wird, braucht es Leitplanken: klare Quellen, Erklärungen zu Trainingsdaten und Hinweise auf Grenzen. Vertrauen entsteht, wenn Anbieter und Anwender offenlegen, was KI kann – und was nicht.

Desinformation ins Leere laufen lassen

Die größte Sorge ist Desinformation. Der beste Schutz ist eine Mischung aus Technik und Bildung:
  • Erkennbarkeit: Wasserzeichen, Metadaten und robuste Nachweise für Echtheit.
  • Prävention: Plattformregeln, die manipulierte Inhalte schneller kennzeichnen oder einschränken.
  • Aufklärung: Einfache Checks, wie man Fakes erkennt – für Schulen, Vereine, Unternehmen.
So kann die Gesellschaft die Vorteile von KI nutzen, ohne die Debattenkultur zu verlieren.

Methodik auf einen Blick

Die Ergebnisse stammen aus einer UMBC-Erhebung, erstellt für das Institute of Politics an der University of Maryland, Baltimore County. Befragt wurden 810 Erwachsene in Maryland, darunter 757 registrierte Wählerinnen und Wähler. Die Erhebung fand vom 21. bis 25. Oktober statt. Der statistische Fehlerspielraum liegt insgesamt bei 3,4%, unter registrierten Wählenden bei 3,5%. Es ist die dritte Veröffentlichung in einer Serie von Umfrageergebnissen.

Konsequenzen für Bildung, Wirtschaft und Medien

Bildung: Lernen mit, nicht gegen KI

Die Sorge um kritisches Denken legt nahe, dass Bildungseinrichtungen klare Regeln definieren sollten:
  • Transparente Aufgaben: Was ist erlaubt, was nicht? Wie kennzeichnen Lernende KI-Hilfe?
  • Prüfkompetenz: Quellenarbeit, Faktencheck, Vergleiche zwischen KI-Ausgabe und Primärquelle.
  • Kompetenzaufbau: KI als Tutor für Übung, Zusammenfassung und Ideen – aber mit Reflexion.
So bleibt die Eigenleistung sichtbar und die Lernziele bleiben erhalten.

Wirtschaft: Produktivität und Vertrauen balancieren

Unternehmen, die KI einsetzen, sollten beides liefern: Effizienz und Klarheit.
  • Richtlinien: Welche Daten dürfen in KI-Tools, welche nicht?
  • Qualitätssicherung: Ergebnisse prüfen, Quellen dokumentieren, Haftungsfragen klären.
  • Weiterbildung: Mitarbeitende fortlaufend schulen, Aufgabenprofile anpassen.
Das mindert Fehler, schützt Kundendaten und macht Teams zukunftsfähig.

Medien: Belegen statt behaupten

Da Desinformation die größte Sorge ist, gewinnen redaktionelle Standards an Gewicht:
  • Belege verlinken und Quellen offenlegen.
  • KI-generierte Inhalte deutlich kennzeichnen.
  • Korrekturen sichtbar machen.
So lässt sich Vertrauen halten – auch wenn manipulierte Bilder und Töne realistischer werden.

Einordnung und Ausblick

Die Umfrage künstliche Intelligenz Maryland 2025 macht eine Zeitenwende sichtbar: KI ist allgegenwärtig, aber die Spielregeln sind noch im Aufbau. Menschen reagieren pragmatisch. Sie nutzen, was hilft, und sie benennen, was schützt. In dieser Haltung liegt eine Chance. Skepsis kann Fortschritt verbessern, wenn sie zu klaren Standards führt. Brisant bleibt, dass unmittelbare Risiken – Desinformation und Identitätsdiebstahl – an der Spitze stehen. Das ist nachvollziehbar: Diese Gefahren treffen private Kommunikation, gesellschaftliche Debatten und demokratische Prozesse direkt. Ebenso wichtig ist der Blick auf Bildung, Arbeit und Umwelt. Hier entscheidet sich, wie nachhaltig der digitale Wandel wird. Wer die Ergebnisse liest, kann drei einfache Lehren ziehen:
  • Transparenz zuerst: Sichtbar machen, wann KI im Spiel ist.
  • Prüfen lernen: Faktencheck und Quellenarbeit als Grundfertigkeiten.
  • Kompetenzen stärken: Vom Klassenzimmer bis ins Büro gezielt weiterbilden.
Damit werden die Vorteile von KI greifbar und die Risiken beherrschbar. Am Ende zeigt die Umfrage künstliche Intelligenz Maryland 2025 kein Nein zu Technologie, sondern ein Ja mit Bedingungen: Nutzen ja, aber verantwortungsvoll. Menschen wünschen klare Informationen, wirksamen Betrugsschutz, verlässliche Regeln und einen fairen Wandel im Arbeitsleben. Wenn diese Erwartungen erfüllt werden, kann KI Vertrauen gewinnen – und ihr Potenzial entfalten. (p(Source: https://marylandmatters.org/2025/11/06/marylanders-are-aware-of-artificial-intelligence-and-they-are-wary-of-it-poll-finds/)

For more news: Click Here

FAQ

Q: Was sind die wichtigsten Ergebnisse der Umfrage künstliche Intelligenz Maryland 2025? A: Die Umfrage künstliche Intelligenz Maryland 2025 zeigt, dass nahezu alle Befragten KI kennen und mehr als 70% die Technologie zumindest gelegentlich nutzen. Zugleich überwiegen Bedenken: Spitzenreiter sind Desinformation (81%), Identitätsdiebstahl (78%) sowie Auswirkungen auf Bildung (61%) und Arbeitsplätze (55%). Q: Wie vertraut sind Menschen in Maryland mit KI laut der Umfrage künstliche Intelligenz Maryland 2025? A: Laut der Umfrage künstliche Intelligenz Maryland 2025 gaben 54% an, sie hätten „viel“ über KI gehört oder gelesen, 32% „einiges“ und 11% „nur ein wenig“. Die Erhebung wurde vom 21. bis 25. Oktober unter 810 Erwachsenen in Maryland durchgeführt; der statistische Fehlerspielraum liegt bei 3,4% (3,5% unter registrierten Wählenden). Q: Wie verbreitet ist die Nutzung von KI in Maryland laut der Umfrage künstliche Intelligenz Maryland 2025? A: Die Umfrage künstliche Intelligenz Maryland 2025 ergab, dass mehr als 70% KI zumindest gelegentlich nutzen, davon 43% wöchentlich oder häufiger und 9% mehrmals im Monat. Weitere 20% greifen seltener als einmal im Monat zu KI-Tools und 26% gaben an, sie überhaupt nicht zu nutzen. Q: Welche konkreten Risiken nennen die Befragten in der Umfrage künstliche Intelligenz Maryland 2025? A: Die Umfrage künstliche Intelligenz Maryland 2025 listet als Hauptsorgen die Verbreitung von Desinformation und politischer Propaganda (81%), Identitätsdiebstahl und Imitation (78%) sowie Einflüsse auf Bildung und kritisches Denken (61%) und den Rückgang zwischenmenschlicher Interaktionen (58%). Darüber hinaus nannten die Befragten Jobverdrängung (55%), Umweltbelastung durch Rechenzentren (51%) und polizeiliche Gesichtserkennung (44%) als relevante Risiken. Q: Welche Maßnahmen empfiehlt die Umfrage künstliche Intelligenz Maryland 2025 für Politik und Gesellschaft? A: Aus der Umfrage künstliche Intelligenz Maryland 2025 ergeben sich mehrere Empfehlungen wie erhöhte Transparenz bei KI-erstellten Inhalten, stärkere Schutzmechanismen gegen Betrug und der Ausbau von Medienkompetenz. Zudem fordert die Studie Begleitmaßnahmen für den Arbeitsmarkt, energieeffiziente Rechenzentren und klare Regeln für den staatlichen Einsatz von KI. Q: Unterscheiden sich Einstellungen zu KI nach Parteizugehörigkeit laut der Umfrage künstliche Intelligenz Maryland 2025? A: Die Umfrage künstliche Intelligenz Maryland 2025 zeigt parteiübergreifende Skepsis: Demokratinnen und Demokraten, Republikanerinnen und Republikaner sowie Unabhängige äußern ähnliche Bedenken gegenüber KI. Während etwa drei von zehn Befragten positive Auswirkungen sehen, erwartet die Mehrheit negative Folgen für die Gesellschaft. Q: Welche Folgen für Bildung nennt die Umfrage künstliche Intelligenz Maryland 2025 und wie sollten Schulen reagieren? A: In der Umfrage künstliche Intelligenz Maryland 2025 nannten 61% mögliche negative Auswirkungen auf Bildung und kritisches Denken, etwa wenn KI Aufgaben übernimmt und Übung fehlt. Als Gegenmaßnahmen empfiehlt die Studie klare Leitlinien für erlaubte KI-Hilfe, Förderung von Quellenarbeit und Prüfkompetenz sowie den gezielten, reflexiven Einsatz von KI als Lernwerkzeug. Q: Welche Bedeutung hat die Umfrage künstliche Intelligenz Maryland 2025 für Arbeit und Umwelt? A: Die Umfrage künstliche Intelligenz Maryland 2025 macht deutlich, dass 55% Jobverdrängung befürchten und 51% die Umweltbelastung durch Rechenzentren als Problem sehen. Deshalb empfiehlt die Studie Maßnahmen wie Fortbildung und Umschulung sowie energieeffiziente Planung und verstärkte Nutzung erneuerbarer Energien für Rechenzentren.

Contents