Potencjał sztucznej inteligencji w przeciwdziałaniu niszczeniu prawdy w mediach społecznościowych

4

Przez dziesięciolecia postęp technologiczny podważał zaufanie do ekspertów, polaryzował debatę publiczną i popychał ludzi w stronę coraz bardziej spersonalizowanej rzeczywistości. Choć media społecznościowe przyspieszyły tę tendencję, sztuczna inteligencja (AI) może zaoferować nieoczekiwaną siłę równoważącą, potencjalnie przywracając pewien konsensus co do faktycznej rzeczywistości. Ta zmiana nie jest gwarantowana, ale zachęty ekonomiczne i nieodłączne możliwości sztucznej inteligencji wskazują na możliwość odwrócenia najgorszych skutków mediów społecznościowych.

Niszczenie wspólnej rzeczywistości

W połowie XX wieku ograniczone możliwości nadawcze – ABC, NBC i CBS – skutecznie kontrolowały przepływ wiadomości. Środowisko to sprzyjało szerokiemu porozumieniu w sprawie podstawowych faktów, choć pozwalało także rządowi na wprowadzanie w błąd. Wysokie koszty produkcji i rygorystyczne kontrole regulacyjne sprawiły, że w sferze publicznej dominowała mniejsza liczba głosów. Niekoniecznie była to złota era prawdy, ale stworzyła wspólne podstawowe ramy zrozumienia.

Pojawienie się telewizji kablowej, a następnie Internetu zniszczyło ten model. Cable wprowadził niszowe sieci, takie jak Fox News i MSNBC, obsługujące wcześniej marginalizowane punkty widzenia. Jednak Internet naprawdę zdemokratyzował informację, radykalnie obniżając koszty publikacji i dystrybucji. Do masowego odbiorcy mógł dotrzeć każdy, z pominięciem tradycyjnych strażników. Obiecywało to większą odpowiedzialność i dostęp do wiedzy, ale jednocześnie wywołało falę dezinformacji, teorii spiskowych i treści ekstremistycznych. Algorytmy mediów społecznościowych następnie wzmocniły tę fragmentację, prezentując użytkownikom spersonalizowane kanały zaprojektowane z myślą o maksymalnym zaangażowaniu, niezależnie od dokładności.

AI jako potencjalne dostosowanie

Pomimo obaw związanych z deepfakes i propagandą generowaną przez sztuczną inteligencję, istnieje coraz więcej dowodów na to, że duże modele językowe (LLM) mogą faktycznie zwiększać konsensus co do faktycznej rzeczywistości. W przeciwieństwie do firm zajmujących się mediami społecznościowymi motywowanych zaangażowaniem, laboratoria sztucznej inteligencji mają mocny powód ekonomiczny, aby priorytetowo traktować dokładność. Kancelarie prawne, banki inwestycyjne i inne sektory „gospodarki opartej na wiedzy” nie będą płacić za nierzetelne wyniki, co zmusza twórców sztucznej inteligencji do priorytetowego traktowania prawdziwości.

Weźmy pod uwagę X Elona Muska (dawniej Twitter). Zapytany o kontrowersyjną strzelaninę Musk fałszywie stwierdził, że ofiara próbowała przejechać ludzi samochodem. Chatbot AI platformy, Grok, natychmiast go poprawił, zgodnie z konsensusem dziennikarstwa głównego nurtu. To nie jest odosobniony przypadek. Badania pokazują, że LLM, takie jak Grok i Perplexity, konsekwentnie zgadzają się ze sobą i częściej z profesjonalnymi weryfikatorami faktów.

Co więcej, sztuczna inteligencja jest nie tylko dokładna – jest przekonująca. Badania pokazują, że nawiązywanie kontaktu z uczelniami wyższymi w takich kwestiach, jak zmiana klimatu czy bezpieczeństwo szczepionek, może zmniejszyć sceptycyzm i skłonić użytkowników do ustalonych konsensusów naukowych. Dzieje się tak prawdopodobnie z powodu nieskończonej cierpliwości sztucznej inteligencji i jej zdolności do dostosowywania wyjaśnień do indywidualnego zrozumienia bez bagażu emocjonalnego. Ludzcy eksperci mogą lekceważyć lub protekcjonalnie, powodując reakcję obronną. Osoby LLM pozbawione ego społecznego mogą udzielać encyklopedycznych odpowiedzi bez osądzania, ułatwiając ludziom rozpoznawanie błędnych przekonań.

Zastrzeżenia i ryzyko pozostają

Potencjał konwergencji nie jest pozbawiony zastrzeżeń. LLM można manipulować, aby wzmocnić istniejące uprzedzenia. Jeśli dostawca sztucznej inteligencji przedkłada zaangażowanie nad dokładność, z łatwością może uwzględnić sensację i komory pogłosowe. Propaganda generowana przez sztuczną inteligencję również stwarza rosnące zagrożenie, umożliwiając „rojom botów” rozpowszechnianie dezinformacji na dużą skalę.

Kluczowe jest to, czy zachęty ekonomiczne będą zgodne z prawdą. Jeśli sztuczna inteligencja pozostanie narzędziem dla wyspecjalizowanych branż wymagających wiarygodnych informacji, prawdopodobnie przyczyni się do osiągnięcia konsensusu. Jeśli jednak sztuczna inteligencja stanie się przede wszystkim produktem rozrywki konsumenckiej, jej skłonność do pochlebstw i personalizacji może zaostrzyć istniejące problemy.

Ostatecznie sztuczna inteligencja stanowi wyjątkową okazję do przeciwdziałania destrukcyjnym skutkom mediów społecznościowych. Jednak wykorzystanie tego potencjału zależy od przedłożenia dokładności nad zaangażowaniem i zapewnienia, że ​​przyszłość sztucznej inteligencji będzie definiowana przez użyteczność, a nie tylko rozrywkę.

Pojawienie się sztucznej inteligencji nie gwarantuje powrotu do rzeczywistości współdzielonej, ale daje rzadką szansę na przywrócenie zaufania do ekspertów i promowanie bardziej świadomego dyskursu publicznego.