Ошибки
January 21, 2022

Тяжелые пирожки, бухгалтерия и беспилотные автомобили

Сдавали несколько дней назад статистическую отчетность о произведенной продукции и обнаружили сильно завышенное число по одному из кодов ОКПД2. Оказалось, оператор сделал ошибку при заведении номенклатурной позиции, один пирожок у него весил не 0,08 кг (80 г), а 80 кг. Тяжелый зараза. Ошибку конечно исправили, но речь в заметке, как вы догадываетесь, пойдет совсем о другом...

Все чаще журналисты и блогеры обсуждают тему возможных лишних профессий в будущем. Под раздачу попали даже бухгалтеры. Подразумевается, что вся их деятельность будет полностью автоматизирована. И рассуждения идут в самых разных контекстах: регламентированный государством учет легко поддается формализации и автоматизации, на рынок труда скоро хлынут толпы ненужных людей, мы больше не увидим в ютубчике роликов с отжиганием бухгалтерш на корпоративах, искусственный интеллект скоро нас окончательно поработит. Что странно, пишут (говорят) об этом, в том числе, серьезные люди, вроде Артемия Лебедева и Сергея Стиллавина.

А что на самом деле? А на самом деле предлагается заменить ответственное звено в организационной структуре компании, безответственным. А бездушному роботу, доложу я вам, совершенно все равно, что пирожок весит 80 килограмм. Он не будет искать и исправлять эту и другие ошибки, просто отправит отчетность и все. А если за неправильные данные предусмотрены штрафы, он не стесняясь, радостно, я бы даже сказал, с огоньком, их оплатит, не обращая внимания на удивление озадаченного собственника. Вы скажете, что для этого конкретного случая надо вводить диапазоны возможных весовых значений для предотвращения подобных ошибок. А я спрошу вас, а кто будет ответственным за правильность ввода данных этих диапазонов, ведь ошибку можно допустить и там? Роботу по прежнему наплевать, а уволенный бухгалтер уже получает пособие по безработице. Вы скажете, номенклатура должна быть унифицирована в какой-нибудь государственной системе. А я отвечу вам, что такие системы есть и сейчас, но в них тоже бывают ошибки, потому что данные туда вносят производители, у которых тоже бывает безответственность и текучка кадров. Ошибок избежать невозможно, надо просто, чтобы их могли обнаружить и исправить ответственные люди, с помощью автоматизации или без.

Абсолютно то же самое с беспилотными автомобилями. Сложные системы управления, возможно на основе нейросетей, безусловное соблюдение ПДД и соответственно меньшее количество ДТП, безработные водители, все это конечно интересно, но главное же не это. Кто будет отвечать за человеческие жертвы из-за неизбежных ошибок в программном обеспечении или при возникновении неопределенных непредвиденных обстоятельств, разработчики, тестировщики, транспортная компания, или саму компьютерную программу придется посадить в тюрьму? А как собираются решать этическую проблему выбора при аварийной ситуации, ехать на нарушившего правила пешехода или врезаться в столб, подвергая риску пассажира, но при этом первый очевидно пострадает сильнее? А если этот пешеход девушка, а если ребенок, а если в салоне тоже сидят дети? Мне кажется, что эти вопросы остаются без ответа не временно. Найти правильные ответы на них просто невозможно.

Интересно, что продвижение подобных сомнительных решений делается вовсе не для какого-нибудь улучшения, например бухгалтерские данные будут точнее, ДТП будет меньше. Мы же взрослые люди и понимаем, что дело в другом. Это просто стремление сократить затраты бизнеса на заработную плату сотрудников, то есть фактически обычная человеческая жадность. И это печально.

←117 | заметка 118 | 119→