NSFWJS — это open-source JavaScript-библиотека для автоматической классификации изображений и фильтрации нежелательного контента. Проект предназначен для разработчиков и позволяет определять наличие неприемлемых материалов (NSFW) непосредственно на стороне клиента, без передачи данных на сервер.
Библиотека работает на базе TensorFlow.js, что делает возможным запуск модели прямо в браузере или в JavaScript-приложениях. Такой подход повышает уровень приватности, снижает нагрузку на сервер и упрощает интеграцию в веб-проекты, где важно быстро и безопасно проверять пользовательский контент.
NSFWJS использует обученную модель машинного обучения, способную классифицировать изображения по нескольким категориям (включая NSFW и SFW) и показывать вероятности срабатывания, что помогает учитывать ложноположительные результаты при модерации контента.
На сайте доступна онлайн-демонстрация, где можно загрузить изображения и сразу получить результат анализа, а также ссылки на GitHub-репозиторий, документацию и дополнительные материалы. Несмотря на связь с тематикой NSFW-контента, библиотека ориентирована не на его создание, а на контроль и фильтрацию, что делает её полезной и для проектов, работающих в нише NSFW AI, и для обычных пользовательских платформ.
Подходит для: владельцам сайтов с пользовательским контентом (UGC), веб-разработчикам и JavaScript-инженерам, проектам, которым важна приватность и client-side обработка данных.






