[ad_1]
Hoewel we GPT-4o niet serieus met Samantha moeten vergelijken, roept het soortgelijke zorgen op. AI-metgezellen zijn er al. Naarmate AI bedrevener wordt in het nabootsen van menselijke emoties en gedragingen, neemt het risico toe dat gebruikers diepe emotionele gehechtheden vormen. Dit kan leiden tot overmatig vertrouwen, manipulatie en zelfs schade.
Hoewel OpenAI blijk geeft van zorg om ervoor te zorgen dat zijn AI-tools zich veilig gedragen en op een verantwoorde manier worden ingezet, moeten we nog de bredere implicaties leren kennen van het loslaten van charismatische AI’s op de wereld. De huidige AI-systemen zijn niet expliciet ontworpen om aan de menselijke psychologische behoeften te voldoen – een doel dat moeilijk te definiëren en te meten is.
De indrukwekkende mogelijkheden van GPT-4o laten zien hoe belangrijk het is dat we een systeem of raamwerk hebben om ervoor te zorgen dat AI-tools worden ontwikkeld en gebruikt op manieren die aansluiten bij de publieke waarden en prioriteiten.
UITBREIDENDE MOGELIJKHEDEN
GPT-4o kan ook werken met video (van de gebruiker en zijn omgeving, via de camera van een apparaat of vooraf opgenomen video's) en op conversatie reageren. In de demonstraties van OpenAI geeft GPT-4o commentaar op de omgeving en kleding van een gebruiker, herkent objecten, dieren en tekst en reageert op gezichtsuitdrukkingen.
Google's Project Astra AI-assistent, slechts één dag na GPT-4o onthuld, vertoont vergelijkbare mogelijkheden. Het lijkt ook een visueel geheugen te hebben: in een van de promotievideo's van Google helpt het een gebruiker haar bril te vinden in een druk kantoor, ook al is deze momenteel niet zichtbaar voor de AI.
[ad_2]
Source link