Насколько надежен искусственный интеллект?

Регистрация | Забыли свой пароль?
02.06.2025

Искусственный интеллект повсюду: он пишет электронные письма, рекомендует фильмы и даже управляет автомобилями, но что насчёт ИИ, которого вы не видите? Кто (или что) стоит за кулисами, разрабатывая алгоритмы, которые остаются незамеченными? И можно ли ему доверять?

Мы поговорили с двумя экспертами из Калифорнийского университета в Сан-Диего из Института науки о данных Халиджиоглу, входящего в состав Школы компьютерных наук, информационных технологий и наук о данных (SCIDS). Мы спросили обоих экспертов, что ждёт ИИ в будущем, включая его проблемы, возможности и естественные ограничения.

Дэвид Дэнкс, магистр наук 1999 года, доктор философии 2001 года, профессор в области науки о данных, философии и политики, изучает не только то, как создаются системы ИИ, но и то, как они формируют общество. 

Лили Венг, доцент, возглавляет лабораторию надёжного машинного обучения, которая обеспечивает устойчивость, надёжность, объяснимость и доверие к системам ИИ.

Как бы вы определили ИИ на самом фундаментальном уровне?

Дэнкс: ИИ — это любая система, которая заменяет, улучшает или дополняет когнитивную деятельность человека. Подобно тому, как машины заменили физический труд, ИИ помогает или улучшает наши мыслительные процессы. В то время как другие могут сосредоточиться на технических аспектах, я делаю акцент на человекоориентированном подходе — на том, что ИИ позволяет нам делать.

Венг: Вы можете рассматривать это как систему, которая работает иначе, чем люди, но создана с целью помогать нам. Хотя повышение интеллекта или эффективности ИИ является частью процесса, его цель — приносить пользу человечеству.

Что вас больше всего удивляет в том, что всё больше людей внедряют ИИ в свою повседневную жизнь?

Дэнкс: Для меня это готовность людей экспериментировать и играть с этими системами. Кажется, люди очень охотно тратят своё время и силы на тестирование систем. Однако эксперименты не всегда приводят к дальнейшему использованию или доверию к системе. И это важно, потому что мы, вероятно, не должны доверять многим из этих систем прямо сейчас. Меня удивило, что в обществе, где многие люди ведут себя так, будто они очень не любят технологии, они, тем не менее, охотно экспериментируют и взаимодействуют с системами искусственного интеллекта, по крайней мере, когда ставки невелики.

Какое отношение имеет «ответственный ИИ» к этому вопросу?

Венг: Мы хотим, чтобы ИИ был ответственным и вызывал доверие у пользователей и разработчиков. Например, вы хотите, чтобы ИИ рассказывал вам, что он делает и как принимает решения. Тогда мы сможем отслеживать или проверять, нет ли у него предубеждений или потенциальных проблем при принятии решений. Мы также хотим, чтобы ИИ был надёжным — вы же не хотите, чтобы он был чувствителен к внешнему шуму или попыткам манипулировать им. Мы хотим, чтобы ИИ следовал определённым принципам, которые мы от него ожидаем.

Сфера ИИ меняется так быстро; о чём нам следует задуматься? О чём вы думаете?

Венг: Проблема, которой занимается моя лаборатория, — это непрозрачность ИИ. Например, архитектура системы, основанной на глубоком обучении, очень сложна. Поэтому, несмотря на то, что она была протестирована и хорошо работает, существует множество сценариев, которые могут произойти, и множество неожиданных ошибок. Моя лаборатория работает над тем, чтобы система ИИ была интерпретируемой, а если это невозможно, то как сделать её более понятной.

Дэнкс: Я трачу немало времени на размышления обо всех неочевидных способах применения ИИ. Когда я захожу в ChatGPT, я знаю, что использую ИИ. Но когда я веду машину, которая в наши дни похожа на компьютер на колёсах, я не знаю, сколько ИИ встроено в неё производителем. Я не знаю, в какой степени они используют ИИ для управления двигателем или в целях наблюдения — возможно, они продают мои данные страховой компании. Таким образом, хотя это и здорово, когда ИИ может работать в фоновом режиме и делать всё лучше, это также создаёт возможности для дополнительных рисков, с которыми мы не сможем справиться, особенно если мы даже не знаем, что был нанесён ущерб. Нам нужна прозрачность в отношении того, используется ли ИИ, и нам нужна прозрачность в отношении того, что делает ИИ, когда он используется.

Как новая школа при Калифорнийском университете в Сан-Диего, SCIDS, будет решать некоторые из представленных вами проблем и вопросов?

Дэнкс: Я думаю, что эта школа открывает перед нами, исследователями и преподавателями, огромные возможности, потому что она начинает разрушать барьеры между фундаментальными и экспериментальными исследованиями, которые проводятся в Институте науки о данных Халиджиоглу, и развёртыванием программного обеспечения корпоративного уровня, которое возможно благодаря Суперкомпьютерному центру Сан-Диего. Я думаю, что у школы есть возможность увидеть, как исследования проходят путь от лаборатории до коммерческого и социального применения. И это создаёт не только возможности, но и новые обязательства для нас — делать это ответственно и этично, чтобы показать, что ответственный ИИ — это не оксюморон.

Что такое то, что ИИ никогда не сможет заменить?

Дэнкс: Любые рабочие задачи, требующие эмоциональной или эмпатической связи с другим человеком, будут очень сложными. Системы искусственного интеллекта могут имитировать эмпатическую связь, но создание такой долгосрочной связи — это то, с чем системы будут испытывать большие трудности. Ещё одна область, в которой системы ИИ будут продолжать испытывать трудности, — это работа с ситуациями, в которых не совсем понятно, что означает успех. Эти системы созданы для оптимизации решений проблем, в которых мы знаем, что такое успех, но бывают случаи, когда мы не знаем, что на самом деле считается успехом, и нам приходится разбираться в этом на собственном опыте.

Что вас привлекает в будущем ИИ?

Венг: Меня очень воодушевляет потенциал ИИ в сфере здравоохранения. Например, как мы можем повысить качество медицинского обслуживания с помощью ИИ? Но основным препятствием является надёжность, поскольку приложения для здравоохранения сопряжены со значительно более высокими рисками и требуют строгих мер безопасности. Они должны соответствовать гораздо более высоким стандартам, чем, скажем, чат-бот или инструменты, которые мы используем ежедневно. Вот почему достоверный диагноз становится очень важным, особенно когда речь идёт о его интерпретации. Нам нужно убедиться, что решения, принимаемые с помощью ИИ, прозрачны и надёжны. Я с энтузиазмом отношусь к исследованиям в моей лаборатории и к работе моих коллег из HDSI, поскольку мы стремимся разработать системы ИИ, которым люди смогут доверять.

Есть ли у вас какие-то последние мысли об ИИ для наших читателей?

Дэнкс: Иногда возникает соблазн представить ИИ как ураган, который надвигается на нас: он изменит нашу жизнь, может быть, даже разрушит её, и мы ничего не можем с этим поделать. Но я думаю, что это неправильный подход к технологиям, потому что ИИ создан нами. ИИ — это будущее, которое мы строим прямо сейчас. Мы должны рассматривать его как возможность, а не как нечто, с чем мы не знаем, как справиться.

Источник: Tech Xplore


Возврат к списку публикаций


Ваше мнение о статье

Интернет-ресурсы

Популярные тэги ntsr.info

Нано в играх

Нанотехнологическое общество России

email: orgnanosociety@mail.ru