Captum от Facebook приносит объяснение машинному обучению

Facebook сегодня представил Captum, библиотеку для объяснения решений, принимаемых нейронными сетями с глубокой структурой обучения PyTorch. Captum разработан для реализации современных версий моделей искусственного интеллекта, таких как Integrated Gradients, DeepLIFT и Conductance. Captum позволяет исследователям и разработчикам интерпретировать решения, принимаемые в мультимодальных средах, которые объединяют, например, текст, изображения и видео, и позволяет им сравнивать результаты с существующими моделями в библиотеке.

Разработчики также могут использовать Captum для понимания важности функций или совершить глубокое погружение в нейронные сети, чтобы понять приписывание нейронов и слоев.

Инструмент также запустится с Captum Insights, инструментом визуализации для визуального представления результатов Captum. Insights запускается с поддержкой интегрированных градиентов, с поддержкой дополнительных моделей, которые появятся в ближайшее время, говорится в сообщении Facebook на сайте poltava-name.com  .

«Существуют и другие библиотеки, которые в большей степени ориентированы на контекст, но глубокое обучение — это действительно самая трудная из трудных проблем, если попытаться понять, о чем на самом деле думает модель, так сказать, особенно когда речь идет об этих мультимодальных технологических проблемах», — говорит PyTorch. Менеджер по продукту Джо Списак рассказал интервью VentureBeat Ina по телефону.

По словам Списака, до того, как сегодня Captum был открыт с открытым исходным кодом, он использовался внутри Facebook для лучшего понимания решений, принимаемых в мультимодальных средах.

«Вы можете посмотреть любую страницу Facebook, на которой есть текст, есть аудио, есть видео и ссылки, и есть несколько различных типов модальностей. И поэтому мы в основном начали с той предпосылки, что мы хотим понять, почему модели предсказывают то, что они предсказывают, но мы хотели сделать это визуально, что дало бы интуицию для пользователей, а также конкретную статистику и информацию, которая позвольте им уверенно говорить, поэтому модель делает такой прогноз », — сказал он.

Интерпретируемость, способность понимать, почему модель ИИ приняла решение, важна для разработчиков, чтобы иметь возможность объяснить, почему модель приняла определенное решение. Это позволяет применять ИИ в компаниях, которые требуют объяснимости, чтобы соответствовать регулирующему законодательству.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *