Искусственный интеллект вместо налогового инспектора? | L’intelligence artificielle à la place des taxateurs ?
В начале весны многие жители Швейцарии традиционно заполняют налоговые декларации. При этом далеко не все знают, что проверять правильность данных может не строгий инспектор, а бесстрастный искусственный интеллект (ИИ).
По данным SRF, три кантона уже поручают самообучающимся алгоритмам проверку налоговых деклараций. Первопроходцами стали Нидвальден и Обвальден, где ИИ используется с 2020 года. Кантон Золотурн пошел еще дальше: здесь алгоритм впервые самостоятельно определил сумму налогов (на документе четко указано, что его не обрабатывал человек). В целом, в Золотурне ИИ просматривает все 175 000 налоговых деклараций, поданных частными лицами, а затем решает, какие из досье будут обработаны полностью автоматически, а какие еще требуют внимания человека. Цель местной налоговой службы состоит в том, чтобы разгрузить сотрудников и сделать так, чтобы 20% налоговых расчетов выполнялись автоматически.
Этому примеру готовы последовать другие кантоны, которые с интересом следят за развитием ИИ. В частности, налоговые службы Базеля-городского, Базеля-сельского, Вале, Санкт-Галлена, Тичино и Тургау сообщили SRF, что у них есть конкретные проекты в этой области, причем в Вале и Тургау уже приступили к пилотным тестам ИИ. В Берне и Цуге рассматривают правовые основы для использования ИИ, в Аргау запланирован старт проекта, в Цюрихе не используют ИИ, но применяют вспомогательное программное обеспечение. Аппенцелль-Ауссерроден, Женева, Люцерн, Невшатель, Фрибург и Швиц пока только задумываются об ИИ. Среди «отстающих» в плане использования алгоритмов при проверке налоговых деклараций оказались кантоны Аппенцелль-Иннерроден, Во, Гларус, Граубюнден, Ури, Шаффхазуен и Юра.
Эксперты относятся к нововведению скептично. Признавая наличие высокого потенциала ИИ для налоговых служб, специалисты напоминают, что алгоритмы, как и люди, не застрахованы от ошибок. Как справедливо отметил профессор налогового права Базельского университета Люциус Кавелти, если ИИ будет совершать ошибки, то это может затронуть несколько тысяч человек, а обнаружить эти ошибки не так и просто. В Нидерландах, например, самообучающийся алгоритм налоговой службы должен был выявлять мошенничество при получении пособий по уходу за ребенком. Но что-то пошло не так: программа начала выписывать штрафы только на основе подозрений, в результате чего пострадали десятки тысяч семей, в основном не имеющих голландского гражданства. Более того, согласно недавнему исследованию Apollo Research, тестовые модели современных систем ИИ от OpenAI, Meta и других компаний могут обманывать людей. В некоторых случаях они намеренно передают ложную информацию и даже пытаются отобрать у разработчиков права на управление сервером. Обнаружив первые признаки того, что ИИ может преследовать свои собственные цели, тестировщики призвали к обязательной проверке безопасности перед выпуском систем на рынок.
Учитывая быстрое развитие ИИ, можно смело предположить, что тенденция к использованию алгоритмов в налоговых службах не только сохранится, но и будет нарастать. Тем важнее, чтобы призыв специалистов к прозрачности оказался услышанным: алгоритмы должны контролироваться не только налоговыми органами и компаниями-производителями, но и независимыми инстанциями.