Развитие исскуственного интеллекта

Компьютерное мышление становится настолько сложным, что мы начинаем терять его рассуждения. Как мы можем убедиться, что знаем, почему искусственный интеллект принимает решение?

Развитие исскуственного интеллекта

Как ИИ принемают свои решения?

Если вы хотите сортировать огромное количество цифровых изображений или классифицировать ошеломляющие количества письменной информации по темам, вам лучше всего полагаться на системы искусственного интеллекта (ИИ), называемые нейронными сетями, которые ищут закономерности в данных и обучаются делать прогнозы на основе своих наблюдений.

Но когда дело доходит до областей с высокими ставками, таких как медицинская информация, где стоимость ошибки или неправильного предсказания потенциально опасна для жизни, мы, люди, иногда неохотно доверяем ответам, которые придумывают программы. Это потому, что нейронные сети используют машинное обучение, в котором они тренируются, как понять вещи, и наши маленькие мясные мозги не могут видеть процесс.

Если вы онкологический пациент, пытающийся выбрать варианты лечения, основанные на предсказаниях того, как может прогрессировать ваша болезнь, или инвестор, пытающийся выяснить, что делать с вашими пенсионными накоплениями, слепо доверять машине может быть немного страшно, тем более, что мы научили машины принимать решения, но у нас нет хорошего способа точно наблюдать, как они их делают.

Но не имейте никакого страха. В новой научной статье Яаккола и другие исследователи Массачусетского технологического института разработали метод проверки ответов, которые придумывают нейронные сети. Подумайте об этом как о машинном обучении, эквивалентном написанию ваших математических задач на доске, чтобы показать свою работу.

Как детали пресс-релиза MIT, нейронные сети AI фактически имитируют структуру человеческого мозга. Они состоят из множества обрабатывающих узлов, которые, как и наши нейроны, объединяют силы и объединяют их вычислительную мощность для решения проблем. В процессе они участвуют в том, что исследователи называют "глубоким обучением", передавая обучающие данные из узла в узел, а затем сопоставляя их с любым типом классификации, который нейронная сеть пытается научиться делать. Результаты постоянно модифицируются для улучшения, почти так же, как люди учатся методом проб и ошибок с течением времени.

Большая проблема заключается в том, что даже компьютерные ученые, которые программируют сети, не могут реально наблюдать за тем, что происходит с узлами, что затрудняет выяснение того, как компьютеры на самом деле принимают свои решения.

Насколько опасен искусственный интеллект?



Автор статьи: Виктор Булавин