Почему ученым по данным важно стремиться к прозрачности? googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q:

Автор: Laura McKinney
Дата создания: 4 Апрель 2021
Дата обновления: 24 Июнь 2024
Anonim
Почему ученым по данным важно стремиться к прозрачности? googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q: - Технология
Почему ученым по данным важно стремиться к прозрачности? googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q: - Технология

Содержание

Q:

Почему ученым по данным важно стремиться к прозрачности?


A:

Прозрачность по существу важна в проектах по науке о данных и программах машинного обучения, отчасти из-за сложности и сложности, которая их ведет - потому что эти программы «обучаются» (генерируют вероятностные результаты), а не следуют заранее заданным инструкциям линейного программирования, и потому, что в результате может быть трудно понять, как технология делает выводы. Проблема «черного ящика» в алгоритмах машинного обучения, которые не могут быть полностью объяснены лицами, принимающими решения, является большой в этой области.

Имея это в виду, возможность освоить объяснимое машинное обучение или «объяснимый ИИ», вероятно, будет основным направлением в том, как компании стремятся к приобретению талантов для исследователя данных. Уже DARPA, организация, которая принесла нам Интернет, финансирует многомиллионное исследование объяснимого ИИ, пытаясь продвинуть навыки и ресурсы, необходимые для создания технологий машинного обучения и искусственного интеллекта, которые были бы прозрачны для человека.


Один из способов думать об этом состоит в том, что часто существует «стадия грамотности» развития талантов и «стадия гиперлитерации». Для ученого, занимающегося данными, традиционной стадией грамотности будет знание того, как составлять программы машинного обучения и как строить алгоритмы с такими языками, как Python; как строить нейронные сети и работать с ними. Стадия гиперлитерации - это способность овладеть объяснимым ИИ, обеспечить прозрачность в использовании алгоритмов машинного обучения и сохранить прозрачность, так как эти программы работают в направлении своих целей и задач своих обработчиков.

Еще один способ объяснить важность прозрачности в науке о данных состоит в том, что используемые наборы данных становятся все более изощренными и, следовательно, более потенциально навязчивыми в жизни людей. Другим важным фактором объяснимого машинного обучения и науки о данных является Европейское общее положение о защите данных, которое было недавно введено в действие, чтобы попытаться обуздать неэтичное использование персональных данных. Используя GDPR в качестве тестового примера, эксперты могут увидеть, как необходимость объяснения проектов по науке о данных вписывается в вопросы конфиденциальности и безопасности, а также в деловую этику.