A Gartner piackutató szerint a keresőmotorok száma két éven belül a negyedével csökken az AI chatbotok és más virtuális ügynökök miatt

Az amerikai elemző cég előrejelzése alapján 2026-ra a hagyományos keresőmotorok száma 25%-kal csökken, miközben a keresőmarketing piaci részesedést veszít az AI chatbotokkal és más virtuális ügynökökkel szemben.
„Az organikus és a fizetett keresés létfontosságú csatornák a technológiai marketingszakemberek számára, akik a tudatosság növelésére és a keresletgenerálásra törekszenek.
A generatív AI (GenAI) megoldások helyettesítő válaszmotorokká válnak, felváltva azokat a felhasználói lekérdezéseket, amelyeket korábban a hagyományos keresőmotorok hajtottak végre. Ez arra készteti a vállalatokat, hogy újragondolják marketingcsatornáik stratégiáját” – mondja a jelentés kapcsán Alan Antin, a Gartner alelnöke.
Virtuális ügynökök váltják fel a hagyományos keresést
A GenAI csökkenti a tartalomelőállítás költségeit, ami hatással lesz többféle vállalati tevékenységre is, beleértve a kulcsszóstratégiát és a webhely domain pontozását.
A keresőmotor-algoritmusok értékelik a tartalom minőségét is, hogy ellensúlyozzák a mesterséges intelligencia által generált tartalom puszta mennyiségét, mivel a tartalom hasznossága és minősége továbbra is a legfontosabb az organikus keresési eredmények sikerében – emeli ki a cég elemzése.
Nagyobb hangsúlyt kap a vízjel és a nagyértékű tartalmak hitelesítésének egyéb módjai is. A kormányrendeletek már világszerte kezdik megkövetelni az AI által létrehozott marketingtartalom-eszközök azonosítását.
Ez valószínűleg szerepet fog játszani abban is, hogy a keresőmotorok hogyan jelenítsék meg az ilyen digitális tartalmakat.
„A vállalatoknak a jövőben is az ügyfelek és a leendő ügyfelek számára hasznos egyedi tartalom előállítására kell összpontosítaniuk. A tartalomnak továbbra is olyan keresési minőséget értékelő elemeket kell bemutatnia, mint a szakértelem, a tapasztalat, a tekintély és a megbízhatóság” – teszi hozzá az idézett alelnök.
Vállalati adatokon tanított GenAI
A témához kapcsolódik a Deloitte TMT(Tech, Media, Telecom) Predictions 2024-es kutatása, ami egyebek mellett arra figyelmeztet, ha már használunk generatív mesterséges intelligenciát, nem mindegy hogyan tanítjuk be azt.
A nyilvános adatokon tanított AI modellek esetében ugyanis mára egyértelművé vált, hogy használatuk nemcsak segítő szándékú, hanem számos kockázatot is jelenthet a cégekre nézve.
Ennek elkerülésére és a komplex információk megértése céljából egyre többen a saját adataikat használva tanítják a GenAI-t.
Bár ennek első hulláma főként a fogyasztókra irányult, és nyilvános adatokon tanították, mára fellendülőben vannak a nem nyilvános, magánfejlesztésű modellek is, amelyek több vállalat- és területspecifikus adatot tartalmaznak.
A lelkesedés nagy, de a vállalatok egyelőre kísérleteznek és próbálják megérteni, hogy a mesterséges intelligencia milyen értéket tud képviselni a számukra.
„Azoknak a vállalatoknak, amelyek évek óta halmozzák fel az adatokat, most lehetőségük nyílik arra, hogy a generatív mesterséges intelligencia segítségével még többet hozzanak ki az összegyűjtött adataikból. Ehhez átgondolt befektetésekre és döntésekre lesz szükség” – mondta Zaránd Miklós, a Deloitte technológiai tanácsadás üzletágának partnere.
A piac bővül és egyre több vállalkozás áldoz a költségvetéséből kifejezetten a mesterséges intelligenciára. Ennek többségét a cégek várhatóan a nagyobb felhőszolgáltatóknak fizetik a modellek betanításáért és a felhasználói lekérdezések programozásáért, illetve az adattudósoknak, akik a vállalati adatokat összekötik az alapvető modellekkel.
Idén ugyanakkor az „on-premise” (telephelyi) GPU-adatközpontok növekedése is megfigyelhető, mivel a nagyobb vállalatok és kormányzati szervek igyekeznek több generatív AI-képességet ellenőrzésük alatt tartani.
Ezért kockázatosak a nyilvános modellek
Mivel a generatív modellekhez hatalmas mennyiségű képzési adat szükséges, a nyilvános modellek első hullámát főként a rendelkezésre álló legnagyobb adathalmazon, a nyilvános interneten tanították, átvéve ennek megannyi torzítását, ellentmondását és pontatlanságát.
A nyilvános adatokból tanított modellek a szerzői jogokat és a jogtisztaságra vonatkozó szempontokat is figyelmen kívül hagyják. Ennek következtében egyre több az olyan per, ahol a felperes a saját munkáját látja viszont a generatív válaszokban.
Erre válaszul egyre több szolgáltató teszi lehetővé a weboldalakon lévő tartalom védelmét attól, hogy azokat mások leszedjék és tanítási anyagként használják fel.
Bár a szerzői jogi törvények piaconként eltérőek lehetnek, egyes helyeken védelemre alkalmatlanná nyilváníthatják a mesterséges intelligenciából származó műveket, mert azok túlzott mértékben származnak korábbi művekből, vagy azért, mert nem eléggé emberi jellegűek ahhoz, hogy szerzői jogot érdemeljenek.
A művészek és a szerzőijog-tulajdonosok számára azonban kihívást jelenthet a több milliárd különböző inputot tartalmazó képzési halmazokból való származtatás bizonyítása.
„A szolgáltatók most szembesülnek a korai nyilvános modellek olyan kihívásaival, mint például a ténybeli tévedések. A szerzői jogi kérdések és a jogtisztaság is fejlesztendő területek. Ezek is ösztönzik a privát modellek létrehozását” – mondja Gercsák Csilla, a Deloitte Magyarország technológiai tanácsadás üzletágának menedzsere.