OVHcloud annuncia il lancio ufficiale di AI Endpoints, una nuova soluzione cloud serverless destinata a facilitare l'integrazione di modelli di intelligenza artificiale nelle applicazioni e nei servizi aziendali. Progettata per democratizzare l'uso dell'IA, la piattaforma offre una libreria di oltre 40 modelli open source, coprendo un ampio spettro di casi d'uso professionali.
AI Endpoints consente agli sviluppatori di accedere a modelli di elaborazione del linguaggio naturale (LLM), generazione di codice, riconoscimento vocale o generazione di immagini, senza dover gestire l'infrastruttura sottostante né disporre di una competenza avanzata in machine learning. La soluzione si basa sull'ambiente cloud sovrano di OVHcloud, garantendo un'ospitalità sicura dei dati in Europa e la loro protezione dalle normative extra-europee.
La piattaforma offre un ambiente di test (sandbox) che consente agli sviluppatori di sperimentare le capacità dei modelli prima della loro completa integrazione, così come API che facilitano l'integrazione negli ambienti di sviluppo esistenti. I casi d'uso mirati includono l'automazione del servizio clienti, l'assistenza alla codifica, l'estrazione di testo da documenti non strutturati o la conversione voce-testo e testo-voce. OVHcloud sottolinea la trasparenza del suo approccio, con modelli forniti in open weight, che possono essere distribuiti su infrastrutture di terze parti o in loco secondo le esigenze delle organizzazioni.
Dopo un'anteprima, la soluzione è stata progressivamente arricchita con nuovi modelli, tenendo conto dei feedback degli utenti (supporto di modelli stabili, gestione affinata delle chiavi API...). Attualmente, AI Endpoints propone più di 40 modelli IA open-source di ultima generazione, tra cui:
LLM : Llama 3.3 70B, Mixtral 8x7B, ...
SLM : Mistral Nemo, Llama 3.1 8B, ...
Code : Qwen 2.5 Coder 32B, Codestral Mamba
Reasoning : DeepSeek-R1 (Llama distillato)
Multimodal : Qwen 2.5 VL 72B, ...
Generazione di immagini : SDXL
Voce e discorso : ASR (speech-to-text), TTS (text-to-speech)
La piattaforma consente l'inferenza su richiesta, con una tariffazione basata sull'uso calcolata sul numero di token consumati per minuto e per modello. Ospitata nel datacenter di Gravelines, vicino a Dunkerque, che utilizza un sistema di raffreddamento ad acqua per minimizzare l'impatto ambientale, è già disponibile in Europa, Canada e nella regione Asia-Pacifico.

Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale

Per capire meglio

Cosa significa l'inferenza on-demand come utilizzata dalla piattaforma AI Endpoints di OVHcloud?

L'inferenza on-demand consente un uso flessibile e ottimizzato delle risorse elaborando i dati solo quando viene effettuata una richiesta, il che può ridurre i costi e migliorare l'efficienza energetica.

Come si conforma il cloud sovrano di OVHcloud con le normative europee sulla protezione dei dati?

Il cloud sovrano di OVHcloud garantisce che tutti i dati rimangano in Europa, rispetta gli standard GDPR, e offre protezione contro l'accesso non autorizzato da parte di regolamenti extra-europei, assicurando la riservatezza e la sovranità dei dati.