<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>sécurité Archives - NovaScience IA</title>
	<atom:link href="https://novascienceia.org/tag/securite/feed/" rel="self" type="application/rss+xml" />
	<link>https://novascienceia.org/tag/securite/</link>
	<description>Démistifier l&#039;IA au collégial</description>
	<lastBuildDate>Thu, 11 Dec 2025 17:54:05 +0000</lastBuildDate>
	<language>fr-CA</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.1</generator>

<image>
	<url>https://novascienceia.org/wp-content/uploads/2024/11/novascience-ia-csf-logo-150x150.png</url>
	<title>sécurité Archives - NovaScience IA</title>
	<link>https://novascienceia.org/tag/securite/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Les 10 principales failles de sécurité des grands modèles de langage (LLM)</title>
		<link>https://novascienceia.org/2025/10/les-10-principales-failles-de-securite-des-grands-modeles-de-langage-llm/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=les-10-principales-failles-de-securite-des-grands-modeles-de-langage-llm</link>
		
		<dc:creator><![CDATA[NovaScience IA]]></dc:creator>
		<pubDate>Sat, 11 Oct 2025 00:15:03 +0000</pubDate>
				<category><![CDATA[Éthique]]></category>
		<category><![CDATA[Informatique]]></category>
		<category><![CDATA[Intelligence artificielle]]></category>
		<category><![CDATA[Programmation]]></category>
		<category><![CDATA[cybersécurité]]></category>
		<category><![CDATA[informatique]]></category>
		<category><![CDATA[sécurité]]></category>
		<guid isPermaLink="false">https://novascienceia.org/?p=442</guid>

					<description><![CDATA[<p>Les grands modèles de langage (LLM) révolutionnent l&#8217;intelligence artificielle, mais présentent des vulnérabilités importantes qui méritent une attention particulière. Voici une analyse détaillée des dix failles majeures identifiées par les experts en sécurité. 1. L&#8217;injection de prompts (Prompt Injection) L&#8217;injection de prompts permet à un attaquant de manipuler le comportement d&#8217;un LLM en insérant des [&#8230;]</p>
<p>L’article <a href="https://novascienceia.org/2025/10/les-10-principales-failles-de-securite-des-grands-modeles-de-langage-llm/">Les 10 principales failles de sécurité des grands modèles de langage (LLM)</a> est apparu en premier sur <a href="https://novascienceia.org">NovaScience IA</a>.</p>
]]></description>
		
		
		
			</item>
	</channel>
</rss>
