Was passiert, wenn Berufskandidaten anstelle von Menschen mit KI ausgesetzt sind?

Denken Sie, Sie können KI überlisten? Wenn uns Algorithmen beurteilen, ändern wir die Art und Weise, wie wir handeln, manchmal auf eine Weise, die unsere Chancen beeinflussen könnte, eingestellt oder zugelassen zu werden.
In einem kürzlich veröffentlichten Artikel in der Proceedings der National Academy of Sciences (PNAs)Die Forscher untersuchten, ob sich Menschen während der Bewertungen anders verhalten, wenn sie sich bewusst sind dass eine künstliche Intelligenz (KI) sie eher bewertet als Menschen. Sie fanden heraus, dass die Menschen in 12 Studien mit mehr als 13.000 Teilnehmern ihre Selbstdarstellung neigten, um analytische Merkmale zu betonen und intuitive oder emotionale Merkmale herunterzuspielen, wenn sie glaubten, von KI beurteilt zu werden. (Hinweis: „statistisch verschoben“ ersetzt durch „Tendenziell neigte sich zur Betonung der praktischen Bedeutung.)
Hintergrund
Da künstliche Intelligenz zunehmend in Entscheidungsprozesse eingebettet wird, nehmen Organisationen KI-basierte Tools ein, um Kandidaten für Jobs oder Bildungsprogramme zu bewerten. Diese Tools versprechen Effizienz und Objektivität, was zu einem wachsenden Trend zum Ersetzen menschlicher Gutachter durch Algorithmen führt. Diese Verschiebung wirft eine kritische Frage auf: Verändert sich die Beurteilung durch KI, wie sich Menschen verhalten?
Jüngere Bewerber zeigten eine stärkere Verhaltensveränderungen, wenn sie sich der KI -Bewertung bewusst sind, was auf Generationenunterschiede in den technischen Erwartungen hinweist.
Auf die psychologische Theorie stützte sich dieses Forscherteam, dass die Menschen ihre Selbstdarstellung verändern, wenn sie wissen, dass eine KI sie bewertet, eine Antwort, die sie als „AI-Bewertungseffekt“ bezeichnen. Insbesondere können Einzelpersonen analytische Merkmale hervorheben und intuitive oder emotionale Aspekte unterdrücken, die von der weit verbreiteten Überzeugung angetrieben werden, dass KI datengesteuerte, logische Eigenschaften gegenüber menschlicher emotionaler Einsicht schätzt. Dieser Glaube, der in dem Papier als „analytische Priorität der Laie“ -Anglauben vorgenommen wurde – ist für die Art und Weise, wie Individuen KI -Präferenzen vorhersehen.
Frühe Nachweise für diesen Effekt stammen aus einer Umfrage unter über 1.400 Bewerber, die eine spielbasierte Bewertung abgeschlossen haben. Diejenigen, die der Meinung waren, dass AI beteiligt war, berichteten über mehr Verhaltensanpassungen. Dies ist von Bedeutung, da wachsende rechtliche Mandate, wie das AI -Gesetz der Europäischen Union, Transparenz über die Verwendung von KI erfordern und das öffentliche Bewusstsein schärfen. Wenn Menschen ihr Verhalten auf der Grundlage möglicherweise falscher Überzeugungen über KI -Präferenzen verändern, kann dies die Bewertungsergebnisse verzerren und zu schlechten Arbeitsplätzen und fehlgeleiteten Entscheidungen führen.
Über die Studie
Die Kernannahme der Teilnehmer, dass KI-Systeme von Natur aus analytische Merkmale bevorzugen, haben ihre Selbstdarstellungsänderungen auch ohne Beweise vorangetrieben.
Die Forscher führten 12 Studien mit insgesamt 13.342 Teilnehmern durch, um zu untersuchen, ob Menschen ihr Verhalten verändern, wenn sie wissen, dass sie von KI und nicht von einem Menschen bewertet werden. Die Teilnehmer wurden über mehrere Plattformen und einen realen Bewerberpool eines Personalvermittlungsunternehmens rekrutiert. Die meisten Experimente wurden über Online -Umfragetools durchgeführt, und ethische Protokolle wurden durchgehend befolgt, einschließlich der Einverständniserklärung in allen außer der Feldstudie.
Studien variierten im Design, einschließlich zwischen den Subjekten, innerhalb der Subjekte, im vignettenbasierten, in Anreiz ausgerichteten und realen Anwendungen in verschiedenen Kontexten wie Rekrutierung von Arbeitsplätzen und College-Zulassungen. Die Teilnehmer waren zufällig oder quasi randomisch zu Bedingungen zugeordnet, unter denen ihnen mitgeteilt wurde, dass sie von AI, einem Menschen oder beides bewertet wurden. Die Forscher haben die selbst gemeldete und Verhaltensschwerpunkte der Teilnehmer auf analytische und intuitive Merkmale gemessen.
Aufmerksamkeitsprüfungen sorgten für die Qualität der Daten, und die Konfidenzintervalle mit Bootstrapten wurden verwendet, um die Nichtnormalität zu mildern. Die Probengrößen wurden basierend auf den Vorhersagen der Effektgrößen bestimmt und an potenzielle Ausschlüsse angepasst. Ausschlüsse wurden konsequent für fehlgeschlagene Aufmerksamkeitsprüfungen, unvollständige Antworten oder den Verdacht auf den Zweck der Studie angewendet.
Schlüsselergebnisse
Die Teilnehmer veränderten ihr Verhalten konsequent, als sie glaubten, eine KI als ein Mensch zu bewerten, und sich als analytischer und weniger intuitiver darstellten. Diese Verschiebung scheint auf die Überzeugung zurückzuführen zu sein, dass KI -Systeme analytische Merkmale vor emotionalen oder intuitiven Eigenschaften priorisieren.
Der Effekt wurde in verschiedenen Teilnehmerproben, einschließlich einer US-repräsentativen Gruppe, beobachtet und war bei jüngeren Personen und solchen mit bestimmten Persönlichkeitsmerkmalen stärker. Experimentelle Konstruktionen, an denen sowohl Vergleiche zwischen als auch innerhalb der Subjekte beteiligt waren, bestätigten, dass das bloße Vorhandensein von AI als Bewerter die Art und Weise veränderte, wie sich Individuen sich selbst zur Selbstdarstellung näherten.
Menschen präsentierten sich im Vergleich zu Bewertungen nur Menschen oder hybriden nur am wenigsten authentisch unter reiner KI-Bewertung.
Als die Teilnehmer ermutigt wurden, ihre Annahmen über KI zu überdenken, z. B. das Nachdenken über das Potenzial, emotionale oder intuitive Eigenschaften zu bewerten, wurde die Tendenz, analytische Merkmale zu betonen, reduziert oder sogar umgekehrt. Als die KI jedoch in frühe Bewertungsstadien verwickelt war und Menschen endgültige Entscheidungen getroffen haben, wurde der Effekt verringert, aber nicht beseitigt.
In einer Studie (Studie 3) hatte diese Verhaltensverschiebung eine bemerkenswerte reale Implikation: 27% der Kandidaten wären nur für eine Position ausgewählt worden, wenn sie von AI bewertet wurden und nicht, wenn sie von einem Menschen bewertet wurden. In allen Einstellungen führte die Überzeugung, dass KI rationale, datengesteuerte Attribute bevorzugt, die Menschen dazu, die Art und Weise, wie sie sich selbst beschrieben haben, strategisch anzupassen.
Die „Unterdrückung“ intuitiver oder emotionaler Merkmale ist eine statistische Verschiebung der Betonung, keine vollständige Auslassung. Explorative Analysen in der Arbeit legen auch nahe, dass die Bewertung der KI-Bewertung Veränderungen in anderen Selbstdarstellungsdimensionen wie Kreativität, ethischen Überlegungen, Risikobereitschaft und Anstrengungsinvestitionen veranlassen kann, obwohl die primäre gemessene Dimension gegen intuitiv analytisch war.
Diese Ergebnisse legen nahe, dass die KI-Bewertung das Verhalten und die Selbstdarstellung signifikant beeinflusst, was sinnvolle Auswirkungen auf die Einstellung, Zulassungen und andere Kontexte mit hoher Einsätze bewerten, in denen zunehmend algorithmische Entscheidungen verwendet werden.
Schlussfolgerungen
Insgesamt fanden die Forscher fest, dass KI-basierte Bewertungen das Verhalten des Kandidaten beeinflussen und ein konsistentes Muster aufzeigen, den „AI-Bewertungseffekt“ bezeichnet werden, bei dem Individuen analytischen Merkmalen betonen und emotionale oder intuitive Unterdrückung bei der Bewertung durch KI unterdrücken. Diese Verhaltensverschiebung scheint von der Überzeugung zu erfolgen, dass KI analytisches Denken schätzt. Wichtig ist, dass die Herausforderung für diesen Glauben den Effekt verringern kann.
Die Ergebnisse haben erhebliche Auswirkungen auf die Fairness und Gültigkeit von AI -Bewertungen. Wenn Kandidaten ihr Verhalten anhand ungenauer Überzeugungen über KI -Präferenzen anpassen, können wahre Eigenschaften maskiert werden, was möglicherweise zu einer suboptimalen Einstellung oder Zulassungsentscheidungen führt. Dies deutet darauf hin, dass Organisationen ihre Bewertungsverfahren kritisch bewerten und potenzielle Verzerrungen angehen sollten, die durch KI -Transparenz -Richtlinien eingeführt werden. Zum Beispiel kann die Information von Kandidaten über die spezifischen Fähigkeiten und Einschränkungen einer KI das Verhalten unterschiedlich beeinflussen.
Während sich die Studie auf das Personalmanagement konzentrierte, könnte zukünftige Forschungen die Auswirkungen in anderen Bereichen mit hohem Einsatz untersuchen, wie z. B. die Bereitstellung von öffentlichem Dienst. Darüber hinaus rechtfertigen Verschiebungen in anderen Merkmalen wie Risikobereitschaft, Ethik und Kreativität eine weitere Exploration sowie die langfristigen Folgen eines KI-gesteuerten Impression-Managements. Die Autoren betonen auch, dass mit der Entwicklung von KI -Systemen die Überzeugungen der Kandidaten – und ihr daraus resultierendes Verhalten – sich verändern und eine fortgesetzte Studie rechtfertigen können.
Quellen:
- AI assessment changes human behavior. Goergen, J., de Bellis, E., Klesse, A. PNAS (2025). DOI: 10.1073/pnas.2425439122, https://www.pnas.org/doi/10.1073/pnas.2425439122