![](https://intelligenza-artificiale.eu/wp-content/uploads/2024/06/Ottimizza-gli-adattatori-Tiny-per-Llama-3-con-VeRA.png)
LoRA ottimizza i modelli linguistici di grandi dimensioni (LLM) aggiungendo un adattatore sopra il LLM pre-addestrato, con solo questo adattatore che può essere addestrato mentre i parametri originali del LLM rimangono congelati. Questo approccio riduce significativamente il numero di parametri che devono essere addestrati, risultando in stati dell'ottimizzatore molto più piccoli. Di conseguenza, la messa a punto di LoRA…
Fonte: towardsdatascience.com