Sztuczna inteligencja stosowana w wyszukiwarkach wielokrotnie wykazywała poważne problemy w dokładności pracy ze źródłami wiadomości. Według ostatnich badań Columbal Journalism Review Center for Columbia Journalism Review, osiem popularnych usług SIDE-SEARCH opartych na generatywnej sztucznej inteligencji zapewnia fałszywe odpowiedzi na pytania dotyczące źródeł wiadomości w ponad 60% przypadków.
Systemy wyszukiwania oparte na AI, takie jak zakłopotanie Pro i Grok 3, zostały skrytykowane za często dostarczanie prawdopodobnych, ale nieprawidłowych danych, w tym niedokładnych nagłówków, źródeł i adresu URL. Ponadto płatne wersje tych modeli okazały się mniej dokładne niż bezpłatne opcje, co tylko zwiększa obawy użytkowników.
Problemy te są jeszcze bardziej pogorszane przez fakt, że niektóre platformy SI, takie jak zakłopotanie, ignorują dyrektywy, które zabraniają skanowania niektórych zasobów internetowych. Może to prowadzić do naruszenia praw własności intelektualnej i niekontrolowanego rozpowszechniania fałszywych informacji. Jeden z uderzających przykładów - zakłopotanie niepoprawnie zidentyfikowało National Geographic Materials, pomimo wyraźnego ograniczenia dostępu do tych zasobów.
Oczywiście problemy te nie pozostały niezauważone wśród wydawców. W obliczu nowych wyzwań: blokowanie systemów SI ich zasobów może pogorszyć ich pozycję, a otwieranie dostępu prowadzi do znacznych strat liczby odwiedzających. Główny dyrektor operacyjny czasu wyraził nadzieję, że z czasem technologie sztucznej inteligencji poprawi się i staną bardziej wiarygodne.
W odpowiedzi na skandal Openai i Microsoft potwierdzili obecność takich błędów w swoich systemach i obiecali pracować nad ich korektą. Jednak niezawodność i dokładność sztucznej inteligencji w wyszukiwarkach pozostaje istotna, a jej rozwiązanie może wymagać znacznych wysiłków programistów i organizacji praw człowieka.