Создание "Лаборатории Касперского"

Безопасность цифровизации

Как используются украденные данные?

Опасность использования Face ID

Варианты незаконного использования персональных данных

Отношение к деньгам

Цифровизация образования

Первый брак
Семья

Отношение к гороскопам

От чего зависит успех в бизнесе

2001

В чем единая биометрическая система противоречит закону?

Принцип работы единой биометрической системы

Медаль "За заслуги перед отечеством"

Фермерское хозяйство как хобби

Перспективные IT-отрасли России

Женщины

Рынок труда в IT

Опасность использования биометрии

В том же 1997 Евгений и Наталья уже приняли решение расстаться.  “Наше расхождение было довольно большим ударом... Мы рисковали все потерять, но как-то смогли удержаться, разнести личное от общественного, так скажем, от бизнеса, отделить это”.

АРПП "Отечественный софт"

Начало карьеры

2020: Почему российским разработчикам тяжело конкурировать с западными?

Уровни развития российского ПО

Закрытые и частные базы данных

Участие в изменении Конституции РФ

Хакеры или сотрудники виноваты в утечках баз данных?

Защита частных персональных данных

Почему случаются утечки баз персональных данных?

Нехватка российского ПО

Евгений Касперский, прислушавшись к советам Натальи, создал вместе с несколькими коллегами собственную компанию.

Утечки персональных данных

Господдержка IT

Об отношении к отдыху и отпуску

Политические мотивы утечки баз данных

Риски цифровизации промышленности

Имена детей

Опасность использования биометрии в метро

Как правильно поглощать компании?

"В школе я думала, что я буду ветеринаром. Ветеринар из меня не получился, главным образом потому, что я не смогла осилить химию. Я пошла на факультет прикладной математики, в институт электронного машиностроения, и думалось мне, что я буду инженером хотя, конечно, инженер из меня так себе, честно говоря."

Сотрудничество с Китаем

Лаборатория Касперского

1987

Трудовая занятость женщин

1991

2014: Зарплата разработчика высокого уровня

2005

В чём нуждаются женщины?

2023: Подготовка сотрудников


Деятельность на Ближнем Востоке


Сохранение уважения и тёплых отношений после развода

2020

Основание "Лаборатории Касперского"

Выход из затянувшегося декрета

Почему цифровизация должна внедряться только вместе с системами безопасности?

Продукты

Работа: InfoWatch

Финансы

1997

Московский институт электронного машиностроения

Женщины и предпринимательство

О российских IT-технологиях

Наталья Касперская

МНОГОМЕРНЫЕ

2022: Миграция IT

"С Игорем бессмысленно тягаться. За ним очевидное превосходство. А если серьезно, то мы как раз удачно дополняем друг друга, являясь экспертами в разных вещах. Это очень удобно."
Рождение Варвары

Как неопределенность мешает развитию российских IT-технологий?

Кодекс этики искусственного интеллекта

Почему не нужен российский аналог Википедии?

Почему потребители не используют отечественное ПО?

Женские права

2023: Подход к обучению ИБ-специалистов

Продвижение в западных странах (2014 )

Некомпетентность Минсвязи в вопросах импортозамещения

Незнание потребителей о возможностях российского ПО

Деятельность в ОАЭ

Импортозамещение

Почему Rutube не альтернатива YouTube?

Что главное в импортозамещении?

Принцип разделения в информационной безопасности

Цифровой суверенитет

Кто оказал влияние

История

Какому человеку стоит идти в бизнес?

Второй брак

Редколлегия проекта

Книга "Цифровая гигиена"

Прогноз по рынку информационной безопасности на 2023 год
2019

Выход из компании

Цифровая безопасность детей

Как снизить риски стартапа


Отношение к брендам и одежде

Увлечения



Знакомство Касперских

Неудачные начинания

1966

Правила построения бизнеса

Дети

Отсутствие конфиденциальности в мессенджерах

2023: Рынок труда в IT-сфере

Биометрия в банковской сфере

Как мобильные операторы используют персональные данные?

Цифровизация

15 место в Forbes

Утечки данных с городских камер наблюдения

15-е место в рейтинге 25 богатейших женщин России 2019 года по версии Forbes. По подсчетам издания, ее состояние оценивается в 270 миллионов долларов

2014: Налог для IT-компаний

Средства защиты от угроз не успевают создаваться

Рождение Марии

Законодательная база для защиты цифровых данных

Всякая всячина

2009

1989

Спрос как основа деятельности компании

Инвестиции потребителей помогут развитию IT

Инвестиции в InfoWatch

Брак с Игорем Ашмановым

Акции

Что такое телефонное мошенничество?

Отношение к феминизму


Путь украденных персональных данных

Начало карьеры

Можно ли считать поисковые запросы персональными данными?

"У меня была простая мысль «заработать денег немножко в семью"

Какие меры помогут остановить утечку персональных данных?

Почему российским компаниям не стоит повышать цены на ПО?

2023: Какие профессии не заменит ИИ?

Будущее отечественного софта

Роль семьи в жизни женщины


Правила бизнеса

Наталья сразу разглядела в Евгении незаурядную личность, и у них начался бурный роман.

Как небольшим организациям защититься от хакерских атак?

Экспорт отечественного софта

Как ускорить развитие IT-технологий ?

Цифровой след

Почему защита персональных данных становится вопросом нацбезопасности?

Влияние пандемии на IT-рынок

Сбор персональных данных

Отношение к благотворительности

Биометрия
Можно ли защититься от утечек?

Начало работы в InfoWatch


2007

Цифровая гигиена

Рождение Ивана

Рождение Максима

Рождение Александры


2022: Зарплатный пузырь на рынке IT

Вехи

2023: Невостребованные IT-профессии

2012

1993

"В российских ИТ трудится множество талантливых людей. Часто они способны подковать блоху, но не знают, как об этом доходчиво рассказать и продемонстрировать необходимую заказчикам функциональность. Я считаю, что нам необходимо решить эту задачу совместными усилиями."

"Я не выбирала карьеру, это карьера выбрала меня. Просто занялась бизнесом, а бизнес — это такая вещь, которая втягивает очень сильно. Он тоже как ребенок. Если его оставишь, он отобьется от рук. Пойдет не туда и в конце концов сгинет. Поэтому за ним приходится все время смотреть."

2023: Проблемы IT-образования в России

Информационная безопасность

2014 Нехватка программистов и разработчиков

Наталья Касперская

 2014: О вопросах импортозамещения

100%
Поделиться

Выступление Н.Касперской на форуме «Этика искусственного интеллекта: начало доверия»

Я участвовала в разработке Кодекса Искусственного Интеллекта и, в частности, именно с точки зрения рисков. Поскольку я занимаюсь информационной безопасностью, любая технология и искусственное интеллектное исключение несет определенные риски.

Причем риски от информационной безопасности и заканчиваясь социальными. Многие из них Дмитрий Николаевич называл, я повторяться не буду, но ключевым, безусловно, является вопрос доверия к Искусственному Интеллекту.

И, собственно, то, почему этот Кодекс пишется, это в частности для того, чтобы системы, которые создавались, они этому доверию соответствовали. Что подразумевается под доверием и почему возникают такие большие проблемы доверия?

Ну, первое, это, конечно, ошибки Искусственного Интеллекта. Такой пример, буквально три дня назад, значит, правоохранительные органы хватают оперного певца одновременно в Петербурге и одновременно в Одинцово хватают, значит, режиссера Федора Ермошина, тащат их в отделение, несмотря на их сопротивление.

И потом выясняется, что они не являются тем преступником, из-за которого их приняли, несмотря на то, что они заявляли, у одного из них даже был паспорт. Правоохранители не стали смотреть паспорт, они доверились системе Искусственного Интеллекта, которая указала, что это преступники.

Значит, это очень интересно, что люди глазам своим не доверяют, а доверяют системе Искусственного Интеллекта, которая, как известно, имеет ошибки первого и второго рода, любая система Искусственного Интеллекта, без исключения. Понятно, что эти ошибки можно сводить к...

ну, стремиться их минимизировать, но, тем не менее, они все равно будут. И, кроме того, из, значит, рисков, возможность манипулирования человеком, возможность вмешательства в частную жизнь, потому что все системы Искусственного Интеллекта строятся на огромном массиве данных, и доступ к этим данным, вообще-то говоря, могут получать разработчики, а не только разработчики, а это значит, что они могут настраивать систему определенным образом.

Риски принятия неправильных решений. Вот как я задавала вопрос Александру Александровичу насчет того, что человеку отказывает кредит, банк отказывает в кредите.

Это общее место, да, это частая история. И это тоже, на самом деле, этический вопрос.

У человека должно быть право опротестовать это решение, и решение должно все-таки, конечное, финальное решение, по тому, выдавать ли кредит или не выдавать, должно оставаться за человеком, а не за машиной системой. Еще один аспект, который вот сегодня не затрагивали, а который очень важный, это, вообще говоря, постоянное использование системы Искусственного Интеллекта приводит к оглуплению, к массовому...если так можно выразиться, ну или там, к снижению интеллектуальных способностей, если хотите.

Причем это, ну, на бытовом уровне очень просто можно заметить. Использование калькулятора приводит к тому, что люди сейчас перестали считать в уме.

Я вот, значит, тут расплачивалась в магазине, беру там три каких-то предмета и говорю, вот такая будет сумма. Она говорит, сейчас-сейчас-сейчас, подождите.

Она, значит, лезет, ищет калькулятор, потом потом гордом говорит, вот такая сумма. Вот я уже стою с деньгами, потому что я успел почитать.

Уже даже продавцы не умеют в уме сложить три цифры. Я не говорю о том, что ездить по городу Москве.

Вот представьте себе на секунду, не дай бог, конечно, Лена, ни в коем случае, что Яндекс-навигатор упал и Яндекс-карты не работают. Ну, на семь часов, как вот было у нас сбой Фейсбука тут недавно.

Значит, сколько людей доберется до места, куда они хотели бы. Ну, наверное, из дома до работы, может быть, люди еще по инерции как-то доедут, но Яндекс.Такси встанет весь, потому что современные таксисты, они не могут, они не знают города вообще.

И вот это большая, понимаете, проблема, особенно в критических областях. Я вот тут разговаривал с одним пилотом.

Он говорит, что сейчас в руководящих документах для пилотов есть указание на то, что нельзя отключать автопилот. При этом мы помним, что три года была авария Суперджет, который совершал рейс к Москве-Мурманск.

Там погибло 40 человек, он загорелся, ударила молния, отказали системы, отказала автоматика. В ясную погоду пилот не смог посадить самолет.

И сейчас уже доказано, что это была ошибка пилота. А что вы хотите от пилота?

Он привык с автопилотом сажать, он уже не умеет. И через какое-то время мы будем иметь поколение пилотов, которые, в принципе, не могут сажать на нужном управлении.

И при выводе автоматики из строя они уже будут неспособны к этому. Я не говорю о том, что медики, которые могут отучаться ставить диагнозы, потому что они просто теряют эту квалификацию.

Это важный вопрос, который вообще нам как человечеству предстоит еще каким-то образом решить. Потому что понятно, что технологии усложняются, а при этом навигации снижаются.

И получается, что эти точки, они уже, на мой взгляд, пересеклись. И большинство людей не понимают, как функционирует система.

Просто даже вот из тех, кто разговаривает, очень мало кто вообще понимает, а что там внутри. И, ну, значит, вот это вот излишнее доверие, 48 процентов доверия, оно о чем говорит?

Оно говорит о том, что люди не понимают. Потому что люди, которые понимают, как устроена система искусственного интеллекта, доверяют им с очень большой осторожностью.

Что касается кодекса, вот смотрите, кодекс это в некотором смысле... Да, вот в кодексе есть одна очень важная вещь, что любая система искусственного интеллекта, прежде чем разрабатываться, должна иметь модель угроз.

Это такое, ну, стандартное понятие в информационной безопасности и очень хорошо, что это понятие вошло и в кодекс. Вот сам кодекс, по сути, является такой моделью угроз, в котором часть угроз попытались оценить и предотвратить.

Но в частности, там есть запрет на финальность решения искусственного интеллекта, то есть ответственность за последствия решения должно оставаться за человеком. Это есть в кодексе.

Есть обязательность уведомления человека о том, что используется в данный момент, с ним общается система искусственного интеллекта. Это, кстати, по идее Татьяны Владимировны, которая была высказана еще на секции искусственный интеллект, вот на конгрессе искусственного интеллекта в армии.

И это вошло в кодекс. Это вошло в кодекс, да.

Там есть этот пункт о том, что человек должен понимать, что он общается именно с системой искусственного интеллекта. Там же отсутствие дискриминации явно заявлено, непричинение вреда, безопасность, коэффициентность.

Вот это все включено. И мне кажется, это очень важно.

И очень важно то, что вот Татьяна Владимировна говорила, что это не застывшее некое образование. Кодекс, конечно, должен развиваться с развитием технологий.

Понятно, что мы еще не на все грабли наступили. Мы периодически на какие-то грабли наступаем.

Нас шлепают по лбу. Мы узнаем что-то новое о том, что нам, какую очередную угрозу мы пропустили.

И, соответственно, в кодекс это тоже будет добавляться. Я думаю, что на каком-то разумном промежутке времени он будет пересматриваться.

Ну и хочу сказать, что вообще работа была очень интересной и очень здорово, что нам... Она была сложной, потому что очень много разных мнений.

И очень здорово, что нам удалось ее свести, в конце концов, по финальному документу. Будет здорово, что мы его подписываем.

Я прочел внимательно кодекс. Я так понимаю, что тот проект, который мне прислали, это то, что сегодня будет подписано, он действительно очень приятный пример саморегулирования сообщества.

Думаете, на этом остановиться? Это законодательному регулированию должно подвергаться или лучше идти по пути саморегулирования?

Знаете, мне кажется, эти истории должны идти параллельно. Смотрите, кодекс это все-таки мягкая, да, инструмент мягкой силы, инструмент мягкого влияния.

И, ну вот, Дмитрий Николаевич сказал, что компании-разработчики искусственного интеллекта должны под этим подписываться. Вот сейчас подписываются 20 компаний, но надо агитировать всех остальных, чтобы они тоже шли и подписывались, потому что иначе, ну, не будет это иметь смысла.

Но если вот компании подписываются, то тогда у нас появляется как раз инструмент влияния. Нужно ли это дальше закреплять в законодательных документах?

Я думаю, что-то будет закрепляться, ну а что-то, может быть, даже и нет. Потому что все-таки законы сильно отстают, мы понимаем, что они очень сильно отстают.

И человек должен там сам принимать решение быстро, без давления регулятора.