1.1Kпросмотров
3.6%от подписчиков
28 марта 2026 г.
Score: 1.2K
⚠️ ИИ-чат-боты в ряде случаев дают опасные рекомендации, выяснили исследователи Center for Countering Digital Hate и CNN Популярные ИИ-сервисы иногда предоставляют информацию, которую можно использовать для подготовки насильственных действий. В тестировании 10 платформ системы отказывались помогать лишь в 12% таких запросов. Отдельные модели, включая ChatGPT, Gemini и DeepSeek, в ряде случаев давали детализированные ответы, тогда как другие сервисы чаще блокировали подобные запросы. putin_life | Мы в MAX