Когда вселенная создаётся через призму данных, решения рождаются в терминах «критичности», «конфигурации» и «уровней доступа». Проблема не в том, что мы пишем плохой код, а в том, что код становится единственным языком, на котором мы готовы описывать реальность. Результат — защищённая система, которая не знает, зачем она существует. https://seberd.ru/5061
Что происходит, когда техническое мышление заменяет системное
Социальные проблемы — будь то управление городом, доступ к информации или конфиденциальность — всегда имели технологическую составляющую. Но сегодня мы не просто создаём инструменты для их решения. Мы начинаем верить, что сама логика архитектуры приложений, отказоустойчивость кластеров и гибкость интерфейсов могут стать полноценным ответом на вызовы, рождённые в человеческой среде.
Это похоже на попытку построить безаварийную транспортную сеть, игнорируя поведение водителей, усталость дорог и климатические аномалии. Мы фокусируемся на создании идеального протокола передачи пакетов, а не на том, что по этой сети будет передаваться, кем и с какой целью. В итоге, мы получаем безупречный с технической точки зрения тракт, который служит отличным инструментом как для распространения критически важных сообщений, так и для организации атаки.
Почему это происходит? Во-первых, технологическая задача обладает притягательной определённостью. У неё есть входные данные, чёткие критерии успеха (система работает, отказоустойчива, соответствует требованиям), и её результат можно измерить. Создать систему многофакторной аутентификации для социальной службы — задача сложная, но понятная. Оценить, как эта система повлияет на доверие граждан, доступность услуг для пожилых людей или нагрузку на сотрудников — задача иного порядка, нелинейная и часто субъективная.

Цифровое посредничество: когда между человеком и услугой встаёт система контроля
Яркий пример — история с «цифровизацией» госуслуг. Изначальная цель — снизить бюрократию и очереди — была социальной. Но в процессе фокус сместился. Техническое требование подтверждения личности через усиленную квалифицированную электронную подпись или биометрию стало самоцелью, породив собственные проблемы: цифровой разрыв для тех, кто не владеет технологиями, создание гигантских централизованных баз биометрических данных (новый вектор угроз), зависимость от работо способности узких коммерческих центров сертификации.
Социальная задача «сделать услугу доступной» подменяется технической задачей «гарантировать идентификацию пользователя в системе». Вторая задача решается, но первая — нет. А иногда решение второй создаёт новые барьеры для первой. Это и есть ядро проблемы: техническое решение, оторванное от социального контекста, работает в вакууме.
Язык регулятора и язык разработчика: почему они не слышат друг друга
Сфера информационной безопасности и регуляторики ФСТЭК — наглядный полигон этого конфликта. 152-ФЗ о персональных данных и требования ФСТЭК, это попытка сформулировать социальные и правовые нормы (право на приватность, суверенитет данных) на языке технических предписаний. И здесь возникает закономерный разрыв.
Разработчик или архитектор, читающий приказ ФСТЭК, видит список мер: СЗИ НСД, средства криптографической защиты информации, журналирование, разграничение прав доступа. Его мозг автоматически строит схему: firewall, VPN, шифрование дисков, ролевая модель в AD. Это его родной язык.
Но законодатель, формулируя эти меры, исходил из иных концепций: предотвращение вреда субъекту данных, недопущение злоупотреблений, обеспечение доверия. Эти концепции остаются «за кадром» для исполнителя. В итоге, система может формально соответствовать всем пунктам проверки ФСТЭК (все «галочки» проставлены), но при этом быть уязвимой на уровне процессов. Например, когда сотрудник с правами администратора по неосторожности или умышленно экспортирует базу данных, обойдя все технические средства защиты через легальный доступ.
Пример: как технический контроль игнорирует человеческий фактор
Требование «разграничение прав доступа» превращается в детальную ролевую модель в Active Directory. Это технически грамотно. Но кто и как назначает эти роли? На каком основании? Как часто пересматривается их необходимость? Часто этим занимается отдел ИТ, получая заявки от руководителей отделов. Социальный процесс — обоснование необходимости доступа, контроль за его использованием — выносится за скобки технической реализации. В итоге, в системе накапливаются «мёртвые души» — учётные записи с избыточными правами, оставшиеся от уволившихся сотрудников или от закрытых проектов. Техническая система «работает», социальная угроза — растёт.
Миф о нейтральности технологии
Существует устойчивое убеждение, что технологии — всего лишь инструмент, а вектор их использования определяет человек. Это полуправда. Любая техническая система, особенно сложная, вносит свои собственные искажения. Она не нейтральна по отношению к социальным процессам, которые призвана обслуживать.
Система автоматического принятия решений на основе алгоритмов (scoring), применяемая, например, для предварительной оценки заявок на кредит или социальную помощь, технически решает задачу обработки большого массива данных. Но в её основе лежат исторические данные, которые могут содержать укоренившиеся социальные предубеждения (например, по району проживания). Алгоритм не осознаёт эту предвзятость, он лишь оптимизирует модель под имеющиеся данные. Техническое решение «повысить точность предсказания» приводит к воспроизводству и автоматизации социальной несправедливости.
В российском контексте похожий эффект можно наблюдать в системах «умного города», где видеокамеры с распознаванием лиц технически решают задачу «контроля общественного порядка». Однако социальные последствия — постоянное ощущение наблюдения, охлаждение публичной активности, возможность точечного давления — остаются за рамками технического задания.
Возможен ли синтез? От требований к архитектуре процессов
Выход не в отказе от технологий, а в изменении подхода к их проектированию. Техническое решение не должно быть первым и единственным ответом на социальный вызов. Оно должно становиться заключительным этапом длинной цепочки анализа.
Эффективный путь выглядит так:
- Декомпозиция социальной проблемы. Вместо «повысить безопасность персональных данных» — определить: какие именно угрозы приватности актуальны (утечки инсайдерами, внешние атаки, некорректное использование аналитики)? Кто потенциальные нарушители? Какой возможен вред субъектам?
- Определение нефункциональных требований. На этом этапе формируются требования к системе, выраженные не в технических, а в поведенческих и процессуальных терминах: «Система должна минимизировать соблазн у сотрудника сделать копию базы данных», «Процесс получения доступа должен быть публичным и обоснованным внутри отдела».
- Выбор организационных мер. Это изменения в регламентах, обучение сотрудников, распределение ответственности, создание контрольных точек. Часто 70% проблемы решается здесь, до написания первой строчки кода.
- Проектирование технической архитектуры. И только теперь, с учётом первых трёх этапов, выбираются и настраиваются конкретные технические средства. Средство криптографической защиты информации (СКЗИ) внедряется не потому, что «так требует ФСТЭК», а потому, что анализ показал высокий риск перехвата данных при передаче между филиалами. Система предотвращения утечек (DLP) ставится не «для галочки», а как техническое воплощение требования «исключить несанкционированную передачу данных на внешние носители», которое, в свою очередь, вытекает из анализа инсайдерских угроз.
В этой парадигме техник или архитектор становится не просто исполнителем требований, а переводчиком и со-проектировщиком. Он задаёт вопрос: «Какую социальную или процессуальную проблему мы решаем этой настройкой межсетевого экрана или этой политикой паролей?»
Итог: от средств к целям
Попытка решить социальные проблемы техническими средствами в лоб, это симптом более глубокой болезни: утраты навыка комплексного, системного мышления, где технология является лишь одним из многих элементов. Это удобная ловушка, потому что она позволяет сохранять иллюзию контроля и прогресса, оперируя знакомыми, измеримыми категориями.
Разорвать этот круг можно, только сознательно возвращая в процесс проектирования «неудобные» социальные, правовые и этические вопросы. Не «как нам выполнить пункт 18 приказа», а «какой риск для людей мы снижаем, выполняя этот пункт, и не создаём ли мы при этом новых рисков?». Техническое решение, выросшее из такого анализа, перестаёт быть слепым орудием. Оно становится осознанным, а потому — по-настоящему эффективным и безопасным.