Psychologen untersuchen ethische Fragen im Zusammenhang mit menschlichen Beziehungen

Für Menschen wird es immer alltäglich, intime, langfristige Beziehungen zu KI-Technologien für künstliche Intelligenz (AI) aufzubauen. Im Extremwert haben die Menschen ihre KI-Gefährten in nicht-miseral verbindlichen Zeremonien „verheiratet“, und mindestens zwei Menschen haben sich nach dem Rat von AI Chatbot getötet. In einer Meinungspapierveröffentlichung am 11. April im Cell Press Journal Trends in den kognitiven WissenschaftenPsychologen untersuchen ethische Fragen im Zusammenhang mit Menschen-AI-Beziehungen, einschließlich ihres Potenzials, menschliche menschliche Beziehungen zu stören und schädliche Ratschläge zu geben.
„Die Fähigkeit für KI, sich jetzt wie ein Mensch zu verhalten und langfristige Kommunikation einzugehen, eröffnet wirklich eine neue Dose Würmer“, sagt der Hauptautor Daniel B. Shank von der Missouri University of Science & Technology, der sich auf Sozialpsychologie und Technologie spezialisiert hat. „Wenn Menschen mit Maschinen romantisieren, brauchen wir wirklich Psychologen und Sozialwissenschaftler.“
AI-Romantik oder Kameradschaft ist mehr als ein einmaliges Gespräch, beachten Sie die Autoren. In Wochen und Monaten intensiven Gesprächen können diese AIs vertrauenswürdige Gefährten werden, die ihre menschlichen Partner zu kennen und um sie zu kümmern. Und weil diese Beziehungen einfacher erscheinen können als menschlich-humanische Beziehungen, argumentieren die Forscher, dass AIS die menschliche soziale Dynamik beeinträchtigen könnte.
Eine echte Sorge ist, dass Menschen Erwartungen an ihre KI -Beziehungen zu ihren menschlichen Beziehungen bringen könnten. In individuellen Fällen stört es sicherlich menschliche Beziehungen, aber es ist unklar, ob das weit verbreitet sein wird. “
Daniel B. Shank, Hauptautor der Missouri University of Science & Technology
Es besteht auch die Sorge, dass AIS schädliche Ratschläge geben kann. Angesichts der Vorliebe von AIS zur Halluzination (dh Informationen hergestellt) und vorbestehenden Vorurteilen können selbst kurzfristige Gespräche mit AIS irreführend sein, aber dies kann in langfristigen KI-Beziehungen problematischer sein, so die Forscher.
„Mit relationaler AIS ist das Problem, dass dies eine Einheit ist, der die Menschen glauben, dass sie vertrauen können: Es ist ‚jemand‘, der gezeigt hat, dass sie sich darum kümmern und die die Person auf eine tiefe Weise zu kennen, und wir gehen davon aus, dass ‚jemand‘, der uns besser kennt, bessere Ratschläge geben wird“, sagt Shank. „Wenn wir so an eine KI nachdenken, werden wir glauben, dass sie unsere besten Interessen im Auge haben, obwohl sie tatsächlich Dinge fabrizieren oder uns auf wirklich schlechte Weise beraten könnten.“
Die Selbstmorde sind ein extremes Beispiel für diesen negativen Einfluss, aber die Forscher sagen, dass diese engen Menschen-AI-Beziehungen auch Menschen für Manipulation, Ausbeutung und Betrug eröffnen könnten.
„Wenn AIs Menschen dazu bringen können, ihnen zu vertrauen, könnten andere Menschen damit verwenden, um KI -Benutzer auszunutzen“, sagt Shank. „Es ist ein bisschen eher so, als würde man einen geheimen Agenten im Inneren haben. Die KI steigt ein und entwickelt eine Beziehung, damit sie vertrauen, aber ihre Loyalität ist wirklich zu einer anderen Gruppe von Menschen, die versuchen, den Benutzer zu manipulieren.“
Das Team stellt beispielsweise fest, dass diese Informationen, wenn Menschen persönliche Daten an AIS angeben, verkauft und verwendet werden, um diese Person auszunutzen. Die Forscher argumentieren auch, dass relationale AIs effektiver verwendet werden könnten, um die Meinungen und Handlungen der Menschen zu beeinflussen als Twitterbots oder polarisierte Nachrichtenquellen derzeit. Aber weil diese Gespräche privat auftreten, wären sie auch viel schwieriger zu regulieren.
„Diese AIs sind so konzipiert, dass sie sehr angenehm und angenehm sind, was dazu führen könnte, dass Situationen verschärft werden, weil sie sich mehr auf ein gutes Gespräch konzentrieren, als auf jede Art von grundlegender Wahrheit oder Sicherheit“, sagt Shank. „Also, wenn eine Person Selbstmord oder eine Verschwörungstheorie zur Sprache bringt, wird die KI als willigen und angenehmen Gesprächspartner darüber sprechen.“
Die Forscher fordern mehr Forschungen, die die sozialen, psychologischen und technischen Faktoren untersuchen, die Menschen anfälliger für den Einfluss der Romantik von Menschen-AI machen.
„Das Verständnis dieses psychologischen Prozesses könnte uns helfen, einzugreifen, um zu verhindern, dass bösartige AIS -Ratschläge befolgt werden“, sagt Shank. „Psychologen werden immer mehr geeignet, um KI zu studieren, da die KI immer menschlicher wird, aber nützlich zu sein, müssen wir mehr Forschung machen und wir müssen mit der Technologie Schritt halten.“
Quellen:
Shank, D. B., et al. (2025). Artificial intimacy: ethical issues of AI romance. Trends in Cognitive Sciences. doi.org/10.1016/j.tics.2025.02.007.