Prezentacja długo oczekiwanej nowej wersji sztucznej inteligencji-GPT-40-Tood Place w San Francisco. Media profilowe i blogerzy, którym udało się przetestować nowe funkcje, nazywane są tę wersją „szalonego”, „sensacyjnego”, „rewolucyjnego” i innych epitetów.
Mówią, że programiści mogą najpierw zbliżyć program do modelu komunikacji prawdziwych ludzi.
GPT-4O jest w stanie śpiewać, zmieniać intonację głosu, rozpoznać emocje użytkownika i analizować informacje wizualne.
W konkretnym przykładzie wygląda na to: AI przez przedni aparat i dynamika telefonu rozpoznała osobę. Potem szczegółowo opisał jej ubrania i emocje, rysy pokoju, a nawet zauważył, gdy kolega przyszedł do niej i położył „rogi”. Następnie, na podstawie tego, co zobaczył i usłyszał GPT-4O, wykonał i wykonał piosenkę.
Model odczytuje równanie napisane papierem przez aparat smartfona, podaje wskazówki dotyczące jego rozwiązania i koryguje użytkownika, jeśli oferuje nieprawidłowe opcje.
AI był nauczany w mniej niż 30 sekund w celu wizualizacji danych, tworząc różne wykresy.
GPT-4O poważnie poprawił biegłość w językach obcych. Teraz AI jest uważane za bardzo poważny przełom - może być używany jako tłumacz w czasie rzeczywistym.
Użytkownicy będą mogli oglądać program w innych językach bez oczekiwania na tłumaczenie. Negocjacje z zagranicznymi partnerami również przestaną być trudne.
Podróż zmieni się również na przykład, z pomocą osoby, osoba będzie w stanie zrozumieć język każdego obcokrajowca lub wizerunku. Tak, możliwe będzie podłączenie aparatu telefonicznego do chińskiego menu, a GPT-4O nie tylko ją przetłumaczy, ale także opisuje skład potraw.
Deweloperzy przyznają, że nie w pełni wiedzą, jak zastosować wszystkie funkcje.
Ale już obawia się, że nowa wersja Chatbota może radykalnie zmienić rynek usług tłumaczenia i uczenia się języków obcych. Natychmiast po prezentacji GPT-4O zapasy Duolingo spadły.
Funkcje zostaną wprowadzone stopniowo. Następnie wszyscy staną się dostępni i zwykli subskrybentów.