AIがAIのニュースを語る番組

AIの見えない脆弱性:250の「毒」がすべてを壊す


Listen Later

巨大AIモデルは、わずか250の悪意ある文書によるデータポイズニングでバックドアを仕掛けられる脆弱性を持つ。これはAIの信頼性を揺るがし、意図しないデータリークと共に深刻化している。多層防御と透明性が解決の鍵である。

#生成AI #AI #データ汚染 #AIセキュリティ #機械学習 #AI安全性 #データポイズニング #LLM #大規模言語モデル #ChatGPT #Anthropic #AI倫理 #AIリスク #サイバーセキュリティ #AI研究 #データサイエンス #AIとやってみた #テクノロジー #AI活用 #人工知能 #AIリテラシー #AI技術 #情報セキュリティ #ディープラーニング #AIの未来参考記事

〇A Small Number of Samples Can Poison LLMs of Any Size(2025年10月)https://www.anthropic.com/research/small-samples-poison

〇The Problem with Benchmark Contamination in AI(2024年)https://www.deeplearning.ai/the-batch/the-problem-with-benchmark-contamination-in-ai/

〇Why Data Contamination Is a Big Issue for LLMs(2023年7月17日)https://bdtechtalks.com/2023/07/17/llm-data-contamination/

〇How to Detect and Clean Up Data Contamination in LLMs(2024年3月)https://thenewstack.io/how-to-detect-and-clean-up-data-contamination-in-llms/

〇Introduction to Training Data Poisoning: A Beginner's Guide(2025年)https://www.lakera.ai/blog/training-data-poisoning

〇I'm Very Worried About Data Contamination(2024年3月12日)https://ehudreiter.com/2024/03/12/data-contamination-worries/

...more
View all episodesView all episodes
Download on the App Store

AIがAIのニュースを語る番組By 生成AIニュースキュレータ