L’intelligenza artificiale sta aiutando i marchi a evitare partnership controverse con influencer  

 | Intelligenza-Artificiale

Le partnership con gli influencer possono essere ottime per i brand che desiderano diffondere contenuti che promuovono i loro prodotti e servizi in modo autentico. Questi tipi di impegni possono produrre una significativa consapevolezza del marchio e un aumento del sentimento del marchio, ma possono anche essere rischiosi. Le star dei social media sono imprevedibili anche nel migliore dei casi, con molte che inseguono deliberatamente le polemiche per aumentare la loro fama.

Queste buffonate non sempre si riflettono bene sui marchi che collaborano con influencer particolarmente assetati di attenzione, lasciando ai professionisti del marketing altra scelta se non quella di condurre un'attenta due diligence sulle persone con cui lavorano. Fortunatamente, questo compito può essere reso molto più semplice grazie a l’utilità in evoluzione dell’intelligenza artificiale.

Lightricksuna società di software nota soprattutto per i suoi strumenti di editing di video e immagini basati sull'intelligenza artificiale, sta espandendo ancora una volta le capacità di intelligenza artificiale della sua suite con l'annuncio di SafeCollab di questa settimana. SafeCollab, un modulo di valutazione degli influencer basato sull'intelligenza artificiale che risiede all'interno della piattaforma di collaborazione per creatori Popular Pays dell'azienda, è un nuovo strumento per gli esperti di marketing che automatizza il processo di valutazione.

Tradizionalmente, gli esperti di marketing non hanno avuto altra scelta che passare ore a ricercare il background degli influencer, esaminando anni di caricamenti video e post sui social media. È un processo lungo e manuale che può essere automatizzato solo con strumenti intelligenti.

SafeCollab fornisce tale intelligenza con i suoi ampi modelli linguistici sottostanti, che svolgono il compito di indagare sugli influencer per garantire che l'immagine che ritraggono sia coerente con i valori del marchio. Gli LLM eseguono in pochi minuti ciò che equivale a una valutazione del rischio dei contenuti dei creatori su più canali di social media, cercando attraverso ore di video, caricamenti audio, immagini e testo.

In questo modo, SafeCollab riduce significativamente il tempo necessario agli esperti di marketing del marchio per eseguire la due diligence sugli influencer dei social media con cui stanno valutando di collaborare. Allo stesso modo, quando i creatori aderiscono a SafeCollab, rendono più facile per gli esperti di marketing comprendere le implicazioni sulla sicurezza del marchio derivanti dalla collaborazione, riducendo gli attriti derivanti dal ciclo di vita delle campagne.

I brand non possono correre rischi

L'idea qui è quella di consentire ai professionisti del marketing del marchio di evitare di lavorare con creatori i cui contenuti non sono in linea con i valori del marchio, così come con coloro che hanno la tendenza a scatenare una tempesta.

Tale due diligence è vitale, perché anche gli influencer più innocui possono avere degli scheletri nei loro armadi. Un esempio calzante è la popolare influencer dello stile di vita Brooke Schofield, che ha più di 2,2 milioni di follower su TikTok e co-conduce il podcast “Canceled” su YouTube. Con il suo ampio seguito, il suo bell'aspetto e uno spiccato senso della moda, Schofield sembrava perfetta per il marchio di abbigliamento Boys Lie, che ha collaborato con lei a un'esclusiva capsule collection chiamata “Bless His Heart”.

Tuttavia, Boys Lie arrivò presto a rimpiangere la sua collaborazione con Schofield quando a scoppiò lo scandalo ad aprile, dopo che i fan avevano scoperto una serie di post sui social media vecchi di anni in cui esprimeva opinioni razziste.

I post, caricati su X tra il 2012 e il 2015 quando Schofield era un adolescente, contenevano una serie di parolacce razziste e battute offensive sulle acconciature dei neri. In un post, ha difeso vigorosamente George Zimmerman, un americano bianco che è stato assolto in modo controverso dall'omicidio dell'adolescente nero Trayvon Martin.

Schofield si è scusata profusamente per i suoi post, ammettendo che erano “molto dolorosi” e sottolineando al contempo che è una persona cambiata, avendo avuto il tempo di “imparare, crescere e formulare le proprie opinioni”.

Tuttavia, Boys Lie ha deciso di non avere altra scelta che abbandonare la sua associazione con Schofield. Dopo una dichiarazione su Instagram in cui si afferma che “sta lavorando a una soluzione”, l'azienda ha ritirato silenziosamente la collezione di abbigliamento a cui aveva precedentemente collaborato.

Accelerare la due diligence

Se il team di marketing di Boys Lie avesse avuto accesso a uno strumento come SafeCollab, probabilmente avrebbe scoperto i post controversi di Schofield molto prima di commissionare la collaborazione. Lo strumento, che fa parte della piattaforma di influencer marketing Popular Pays di Lightricks, aiuta i marchi ad automatizzare i loro processi di due diligence quando lavorano con i creatori di social media.

Analizzando anni di cronologie di post dei creatori su piattaforme come Instagram, TikTok e YouTube, può controllare tutto ciò che hanno pubblicato online per assicurarsi che non ci sia nulla che possa riflettersi negativamente su un marchio.

I brand possono definire i propri parametri di rischio e lo strumento genererà rapidamente un’accurata valutazione del rischio, in modo che possano scegliere con sicurezza gli influencer con cui vogliono lavorare, sicuri che le loro partnership difficilmente susciteranno reazioni negative.

Senza una piattaforma come SafeCollab, il compito di eseguire tutta questa due diligence ricade sulle spalle dei professionisti del marketing, e ciò significa passare ore a setacciare i profili di ciascun influencer, controllando tutto e qualsiasi cosa abbiano detto o fatto per assicurarsi che non ci sia nulla nei loro profili. passato a cui il marchio preferirebbe non essere associato.

Se consideriamo che l'ambito del lavoro potrebbe includere voci fuori campo, estesi thread di commenti e analisi fotogramma per fotogramma dei contenuti video, si tratta di un processo scrupoloso che non finisce mai veramente. Dopotutto, i top influencer hanno l’abitudine di sfornare nuovi contenuti ogni giorno. Gli esperti di marketing non hanno altra scelta che monitorare continuamente ciò che pubblicano.

Oltre alle scansioni iniziali della cronologia, gli algoritmi di monitoraggio in tempo reale di SafeCollab si assumono la piena responsabilità, generando avvisi istantanei su qualsiasi contenuto problematico, come post che contengono linguaggio grafico, immagini inappropriate, promuovono la violenza o l'uso di droghe e alcol, menzionano la violenza o qualunque altra cosa il marchio ritiene sgradevole.

Le applicazioni in espansione dell'intelligenza artificiale

Con il lancio di SafeCollab, Lightricks sta dimostrando un altro caso d'uso per l'intelligenza artificiale generativa. L'azienda si è inizialmente fatta un nome come sviluppatore di app di editing di video e immagini basate sull'intelligenza artificiale, tra cui Photoleap, Facetune e Videoleap.

Quest'ultima app incorpora filtri video basati sull'intelligenza artificiale e funzionalità AI generative da testo a video. Vanta anche una funzione Effetti AI, in cui gli utenti possono applicare stili artistici AI specializzati per ottenere l'atmosfera desiderata per ogni video che creano.

Lightricks è anche la società dietro LTX Studioche è una piattaforma completa che aiuta le società di produzione pubblicitaria e i registi a creare storyboard e presentazioni ricche di risorse per i loro progetti video utilizzando l'intelligenza artificiale generativa da testo a video.

Con tutte le app AI di Lightricks, il vantaggio principale è che fanno risparmiare tempo agli utenti automatizzando il lavoro manuale e dando vita a visioni creative, e SafeCollab ne è un ottimo esempio. Automatizzando il processo di due diligence dall'inizio alla fine, gli esperti di marketing possono identificare rapidamente gli influencer controversi da cui preferirebbero evitare, senza spendere ore a condurre ricerche approfondite.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *