A Google újonnan egyesített AI-csapata, a Google DeepMind mostantól a Flamingo nevű vizuális nyelvi modelljét használja a YouTube Shorts-ok kereshetőségének javítására.
A Google DeepMind bejelentette a Flamingo vizuális nyelvi modell (VLM) innovatív alkalmazását a YouTube Shorts kereshetőségének javítására. Mivel a legtöbb rövidfilm gyorsan készült és nem tartalmaz leíró részleteket, a keresésen keresztül történő megtalálásuk kihívást jelentett. A Flamingo ezt a hiányt úgy pótolja, hogy a videó kezdeti képkockáit elemezve megfelelő leírásokat készít, amelyeket aztán metaadatként tárol, hogy javítsa a videók kategorizálását és pontosabban illeszkedjen a keresési lekérdezésekhez. A Flamingo modell felbecsülhetetlen értékűnek bizonyul az ilyen metaadatokat kereső rendszerek számára, különösen azért, mert az alkotók gyakran kihagyják ezeket az adatokat – olvasható Colin Murdoch, a Google DeepMind üzleti igazgatója és Todd Sherman, a Shorts termékmenedzsmentjének igazgatója szerint. Ez a funkció egyszerűsíti a tartalomkészítési folyamatát azáltal, hogy megszünteti a metaadatok kézi bevitelének szükségességét, különösen mivel a legtöbb rövidfilmet inkább görgetett feedben tekintik meg, nem pedig aktív kereséssel. Ezek az automatikusan generált leírások azonban a színfalak mögött maradnak, és nem kerülnek bemutatásra az alkotóknak. Kizárólag a belső adatok és keresési lehetőségek javítására használják majd őket. E leírások pontosságának biztosítása kulcsfontosságú, és nagy hangsúlyt fektetünk arra, hogy a Google felelősségi normáihoz igazodjanak, így megelőzve a tartalom esetleges károsodását vagy félreértelmezését. A Flamingo már működik az új Shorts feltöltéseken és a meglévő népszerű videók nagy tömegén. Bár jelenleg a Shorts-ra van kihegyezve, a jövőben nem zárják ki a Flamingo alkalmazását a hosszabb YouTube-videókon, ami a jövőben potenciálisan forradalmasíthatja a YouTube-keresést.