Насколько надежным является пароль, который вы используете для доступа к учетной записи электронной почты? Когда вы в последний раз его меняли?
Ваша электронная почта - это шлюз для большей части вашей безопасности - тот, кто перехватил вашу электронную почту, может использовать ее для сброса многих других ваших паролей.
Тем не менее, 10 распространенных паролей, которые используют люди: "123456, 1234566789, Qwerty, password, 111111, 123456678, abc123, 12345667, password1 и 12345." Этому есть несколько причин, но одна из них заключается в том, что люди, как правило, торгуют своей безопасностью для удобства.
В дополнение к этому, эксперты по сетевой безопасности не всегда понимают этот факт или его последствия.
Я был на совещании, посвященном этой теме, и ИТ-специалисты фактически заявили, что их политика паролей заключается в следующем: используйте жесткую буквенно-цифровую форму, не записывайте ее нигде, используйте разные пароли для каждого входа в систему и меняйте их каждые 30 дней.
Это буквально невозможно для подавляющего большинства населения.
Люди будут пожимать плечами этими глупыми рекомендациями и использовать "123456".
Рекомендуется использовать пароль, состоящий из трех незабываемых для вас независимых слов, которые нелегко угадать, но которые запомнить кому-то другому.
Однако мы быстро выходим за рамки возраста паролей.
Биометрия может спасти нас от собственной лени, по крайней мере отчасти потому, что она помогает нам понять что-то уникальное в нас самих.
Они являются биологическим ключом, который мы несем с собой.
Частично именно поэтому хакеры переходят к социальной инженерии, а не взламывают программное или аппаратное обеспечение, чтобы нарушить безопасность.
То же самое можно сказать и о неприкосновенности частной жизни - люди жертвуют определенным количеством личного пространства ради удобства.
Иногда у нас нет выбора. Если мы хотим жить и заниматься бизнесом в современном мире, мы должны поместить туда кого-то из себя).
Если вы хотите сесть в самолет, вы должны позволить кому-то пробиться сквозь ваши вещи и даже пройти сканирование всего тела.
Поэтому, хотя мы в индивидуальном порядке готовы торговать безопасностью для удобства, мы все вместе хотим торговать конфиденциальностью для безопасности.
Хотя мне любопытно. Если бы людям была предоставлена возможность сесть на самолет без охраны, они бы это сделали? Если бы у вас был выбор - идите прямо к своим воротам, никакой охраны. Но на этом рейсе нет охраны.
В любом случае, все это интересно рассматривать в свете стремительного развития искусственного интеллекта (ИИ).
Шутка сейчас в том, что ИИ может знать о тебе больше, чем ты о себе.
Если совместить искусственный интеллект с большими объемами данных и тот факт, что мы постоянно оставляем цифровые следы своей деятельности в Интернете, мы фактически потеряли значительную часть нашей конфиденциальности.
Когда вы заходите на сайт, потому что на нем есть нужная вам информация, или потому что вы пытаетесь что-то купить в Интернете, и появляется всплывающее окно, которое говорит: "Этот сайт использует файлы cookie, нажмите, чтобы согласиться" - вы на него нажимаете?
Если я просто случайно просматриваю сайт и мне наплевать на эту информацию, я закрою сайт и не приму cookie-файлы.
Но если я делаю покупки или мне нужен доступ к статье, то у меня нет выбора.
Я также считаю, насколько надежным может быть этот сайт - известный ли он сайт, или что-то эскизное.
Даже с достаточной степенью осторожности вы, скорее всего, будете собирать файлы cookie в режиме реального времени.
Конечно, есть способы анонимного просмотра.
Есть способы заблокировать или деактивировать cookie-файлы.
Но сколько людей тратит на это время (опять же, удобство против безопасности)?
Существует огромное количество данных о нас самих.
Такие социальные сети, как Facebook, собирают информацию о вас, а затем продают ее рекламодателям. Это их бизнес-модель.
Магазины отслеживают ваши покупательские привычки, которые ИИ может многое о вас рассказать.
Но есть совершенно новый уровень использования искусственного интеллекта, чтобы заглянуть в нашу личную внутреннюю жизнь.
Алгоритмы искусственного интеллекта учат предсказывать настроение и риск определенного поведения людей, изучая выражения лица, слова.
Все это хорошо.
Похоже, мы находимся на пороге трансформации медицинской диагностики через искусственный интеллект (хотя мы, вероятно, будем медленнее адаптироваться к ней, чем нам нужно).
Но как только базовая технология искусственного интеллекта появится, она, скорее всего, не будет ограничиваться врачебным кабинетом или больницей.
Насколько открытой книгой мы станем для ИИ, вооружённого только всё более распространёнными камерами и нашей онлайн информацией?
Сколько из этого мы примем, если нам скажут, что технология будет использоваться для обнюхивания террористов и серийных убийц?
Что если эта технология используется не для того, чтобы изменить наши привычки в покупках, а для того, чтобы изменить наши привычки голосования?
Тогда он буквально становится механизмом получения власти или, по крайней мере, изменения формы нашего правительства или политики.
Она сама становится властью. Это может легко пройти в очень страшных направлениях.
Не думаю, что мы можем случайно предположить, этого просто не произойдет из-за норм или свободной прессы, или потому, что наши сограждане сделают достаточно информированный выбор.
Если либеральные демократии имеют антиутопическое будущее, то, на мой взгляд, оно, скорее всего, будет в руках технократии ИИ, нейросетей, алгоритмов, глубокого изучения и больших массивов данных.
Это мощные инструменты, которые постепенно разрушают нашу конфиденциальность и свободу, и мы продемонстрировали тенденцию позволять этому происходить, пока есть немного безопасности или удобства.