<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/">
	<channel>
		<title>Info DataAi Gen, come funziona (e a cosa serve) il modello multimodale Llava? - Info Data</title>
		<link>https://www.infodata.ilsole24ore.com/2023/10/22/ai-gen-come-funziona-e-a-cosa-serve-il-modello-multimodale-llava/</link>
		<description>Le notizie raccontate con i  numeri</description>
		<lastBuildDate>Tue, 12 May 2026 11:55:13 +0000</lastBuildDate>

					<item>
				<title>Ai Gen, come funziona (e a cosa serve) il modello multimodale Llava?</title>
				<link>https://www.infodata.ilsole24ore.com/2023/10/22/ai-gen-come-funziona-e-a-cosa-serve-il-modello-multimodale-llava/</link>
				<pubDate>Sun, 22 Oct 2023 10:38:25 +0000</pubDate>
				<dc:creator><![CDATA[Infodata]]></dc:creator>
								<source>AI</source>
				<sourcelink>https://www.infodata.ilsole24ore.com/argomento/ai</sourcelink>
				
				<description>
					<![CDATA[
<p class="asummary d-none d-lg-block">Llava sta per <a href="https://llava-vl.github.io/">Large Language and Vision Assistant</a>, un modello multimodale di grandi dimensioni <a class="classi-link-esterno" href="https://arxiv.org/abs/2304.08485">addestrato da un gruppo di ricercatori </a>. Cosa sa fare? A Llava gli diamo in pasto un’immagine e gli chiediamo cose – per ora in inglese soltanto – abbinate a quella. Per altro, nel nostro test abbiamo visto risposte in pochissimi secondi, ogni volta. Ci sono tre possibili funzioni: riconoscere gli oggetti o il contenuto di una immagine; l’ocr, ossia la lettura di parole presenti nell’immagine; l’analisi dell’immagine dove il modello si collega a una base di conoscenza e quindi può darci consigli e fare considerazioni. Tipo...</p>]]>
				</description>

									<enclosure length="0" type="image/jpeg" url="https://www.infodata.ilsole24ore.com/wp-content/uploads/sites/89/2023/10/IA-ADOBWeb.jpg"/>
												<post-id xmlns="com-wordpress:feed-additions:1">80822</post-id>			</item>
			</channel>
</rss>