Glossario AI

Acronomi e Architetture da Conoscere

CURIOSITÀ

9/2/20252 min read

black and white robot toy on red wooden table
black and white robot toy on red wooden table

Nel mondo dell’intelligenza artificiale si incontrano continuamente acronimi e sigle che possono sembrare complessi e oscuri. Questo glossario nasce per fare chiarezza, offrendo una guida pratica ai termini più usati, che spaziano dai chip hardware indispensabili per l’addestramento fino ai modelli generativi di ultima generazione.

Che tu sia un ricercatore, uno sviluppatore o un appassionato, qui troverai una base solida per comprendere meglio il linguaggio dell’AI.

Hardware e Infrastrutture

  • GPUGraphics Processing Unit
    Processore parallelo fondamentale per l’addestramento dei modelli AI.
    Esempio: senza GPU, l’addestramento di un modello come GPT-3 richiederebbe anni invece che settimane.

  • TPUTensor Processing Unit
    Chip sviluppato da Google per ottimizzare i calcoli di machine learning.
    Esempio: viene utilizzato in Google Cloud AI per accelerare i Transformer.

  • CPUCentral Processing Unit
    Processore centrale, gestisce operazioni generali.
    Esempio: spesso coordina GPU e TPU durante l’addestramento.

  • FPGAField-Programmable Gate Array
    Hardware programmabile per compiti specifici, adatto a inferenze personalizzate.

  • ASICApplication-Specific Integrated Circuit
    Circuiti progettati per un solo scopo, molto efficienti.
    Esempio: utilizzati anche per il mining di Bitcoin.

  • CUDACompute Unified Device Architecture
    Piattaforma NVIDIA per programmare GPU.
    Risorsa utile: CUDA Toolkit

  • cuDNNCUDA Deep Neural Network library
    Libreria NVIDIA ottimizzata per reti neurali.
    Essenziale per framework come TensorFlow e PyTorch.

  • TensorRT
    Software NVIDIA per ottimizzare modelli AI nell’inferenza, aumentando velocità ed efficienza.

  • OpenVINO
    Toolkit Intel per ottimizzare e distribuire modelli AI su diversi tipi di hardware.

Generative AI e Modelli Diffusivi

  • DDPMDenoising Diffusion Probabilistic Models
    Modelli generativi basati su processi di diffusione probabilistici.

  • DDIMDenoising Diffusion Implicit Models
    Variante più veloce ed efficiente dei modelli DDPM.

  • LAIONLarge-scale Artificial Intelligence Open Network
    Dataset open di immagini e testi, utilizzato per addestrare modelli multimodali come Stable Diffusion.

  • LoRALow-Rank Adaptation
    Tecnica per adattare modelli di grandi dimensioni in modo leggero, riducendo i costi di calcolo.

  • DreamBooth
    Metodo per personalizzare modelli diffusivi con pochi esempi.
    Esempio: generare immagini di un oggetto specifico a partire da foto personali.

  • Inpainting
    Tecnica che consente di modificare parti di un’immagine mantenendo la coerenza visiva.

  • Outpainting
    Estensione dell’immagine oltre i bordi originali, creando scenari coerenti e realistici.

  • CFGClassifier-Free Guidance
    Metodo per migliorare la qualità delle immagini generate senza bisogno di classificatori esterni.

  • Prompt Engineering
    L’arte di scrivere prompt efficaci per guidare i modelli AI verso risultati desiderati.

  • Zero-Shot
    Capacità di un modello di eseguire compiti senza addestramento specifico sul task.
    Esempio: GPT-4 può tradurre da una lingua all’altra anche senza essere stato addestrato esclusivamente come traduttore.