Dieses Biblionetz-Objekt existiert erst seit Oktober 2025.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
This essay examines the intricate relationship between large language models (LLMs) and privacy, investigating the ethical and practical issues stemming from cutting-edge artificial intelligence (AI) technologies. The research delves into the evolving understanding of privacy in the digital era, with a specific emphasis on the risks posed by anthropomorphic AI design. The analysis highlights critical privacy concerns:
- Trust and accountability: The lack of true moral agency in AI systems complicates traditional notions of trust and responsibility;
- Nissenbaum's Contextual Integrity Framework as a tool to explore privacy issues in general and with LLM;
- Data collection challenges: LLMs collect extensive user data, often without explicit consent, potentially breaching contextual privacy norms;
- Anthropomorphism risks: Human-like AI interfaces can foster over-trust, leading users to share sensitive information inappropriately.
This article underscores that privacy is a complex, multidimensional concept profoundly shaped by technological, cultural, and social forces. As AI technologies continue to advance, safeguarding privacy will necessitate a nuanced approach that strikes a balance between individual rights, societal needs, and technological progress. We conclude with user-oriented guidelines and future research directions, offering a comprehensive framework for understanding and addressing the privacy implications of LLMs.
Dieser wissenschaftliche Zeitschriftenartikel erwähnt ...
![]() Personen KB IB clear | Ameet Deshpande , Ashwin Kalyan , Karthik Narasimhan , Helen Nissenbaum , Tanmay Rajpurohit | ||||||||||||||||||
![]() Begriffe KB IB clear | Anthropomorphisierung bei GMLS
, Anthropomorphismus
, Chat-GPT
, China
, Contextual Integrity Framework
, Deutschland germany
, Digitalisierung
, Dilemma
, EU-DSGVO
, Europa Europe
, Generative Machine-Learning-Systeme (GMLS) computer-generated text
, Künstliche Intelligenz (KI / AI) artificial intelligence
, Privatsphäre privacy
, reinforcement learning
, RLHF (Reinforcement Learning from Human Feedback)
, Überwachung
, USA
, Vertrauen trust
| ||||||||||||||||||
![]() Bücher |
| ||||||||||||||||||
![]() Texte |
|
Dieser wissenschaftliche Zeitschriftenartikel erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Generative Pretrained Transformer 3 (GPT-3), Generative Pretrained Transformer 4 (GPT-4), GMLS & Bildung, GMLS & Schule, supervised learning, unsupervised learning |
Tagcloud
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
Anderswo finden
Volltext dieses Dokuments
![]() | Balancing Minds and Data: Artikel als Volltext ( : , 872 kByte; : ) |
Anderswo suchen 
Beat und dieser wissenschaftliche Zeitschriftenartikel
Beat hat Dieser wissenschaftliche Zeitschriftenartikel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieser wissenschaftliche Zeitschriftenartikel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.


Anthropomorphismus
Chat-GPT
China
Deutschland
Digitalisierung
EU-DSGVO
Europa
Generative Machine-Learning-Systeme (GMLS)
Künstliche Intelligenz (KI / AI)
Privatsphäre
Überwachung
USA
Vertrauen


, 872 kByte;
)
Biblionetz-History