Среди опасностей, связанных с «искусственным интеллектом» чаще первыми в голову приходят сценарии, много раз прокрученные в фантастических фильмах и книгах — компьютеры обретут волю и самосознание и, сочтя людей досадной помехой, покончат с человеческим родом.
Но специалисты обычно не говорят об этом. По крайней мере, не в первую очередь. Многие вообще считают, что говорить о самосознании машин (сколь угодно мощных) невозможно так как компьютер - это чисто алгоритмическое устройство, он обрабатывает последовательности нулей и единиц согласно правилам, установленным программистами, в то время как сознание не алгоритмично, оно определяется субъективным опытом, переживанием «от первого лица».
Но с искусственным интеллектом связывают ряд вполне реалистичных опасностей — и они больше относятся не к предполагаемой враждебности машин, а к вполне реальной злонамеренности людей. И одна из этих опасностей — это так называемые «глубокие фейки», deep fakes, видео, созданные средствами нейросетей, которые тщательно подделывают реальность.
Например, ролик, в котором какой-нибудь известный политик показан в компрометирующей ситуации, в которой на самом деле он не был. Или в котором он произносит речь — его голосом, со всеми характерными жестами и интонациями, которую на самом деле не произносил.
Предполагается, что эта технология откроет ящик пандоры, представив неслыханные ранее возможности для пропаганды и обмана. Люди смогут «своими глазами» абсолютно реалистично и в высоком разрешении увидеть события, которые никогда не происходили. Можно говорить о первых звонках — по интернету уже разбегаются изображения, созданные нейросетью, которые выдаются за репортажные фотографии. Правда, пока еще программа несовершенна — например, неидеально прорисовывает пальцы — и подмену вполне можно обнаружить. Но чем дальше, тем лучше она будет работать.
Конечно, эта технология несет с собой опасность, но ее нельзя назвать новой. Люди всегда лгали и манипулировали друг другом — сначала путем устных слухов, потом появились газеты, потом радио, потом телевидение, потом интернет. Манипуляция фактами и свидетельствами, когда ни один кадр не является фальшивым, но ролик в целом смонтирован так, чтобы создавать совершенно ложное впечатление — явление уже очень давно и хорошо знакомое. Что делать со всем этим?
Чтобы понять это, важно выяснить, что заставляет людей разгонять фейки. К каким потребностям людей они апеллируют, на каких слабостях играют? Прежде всего, фейки почти всегда носят негативный характер — какой мерзавец этот N, не зря мы все его так ненавидим. Они дают людям радость сознания того, что они-то не мерзавцы, они-то хорошие люди. Удаляясь от этой радости о чужом грехе, мы уже сделаем себя гораздо менее уязвимыми. Кроме того, они рассчитаны на то, чтобы выбить адресата из эмоционального равновесия — разозлить или напугать.
Сообщение, которое вызывает у вас ярость, гнев, и острое желание «своими руками душить гадов», не обязательно фейк — но очень на него похоже. Его стоит отложить в сторону до дальнейших разъяснений. Но общее и самое простое правило — побуждает ли это к греху? К злорадству о чужом падении, к ненависти, к мести? Если да, то его точно не следует распространять. Мы можем утопать в потоке информации — и не знать, что происходит на самом деле. Иногда нет греха в том, чтобы сказать «я точно не знаю». Это не помешает нам действовать в границах нашей реальной осведомленности и реальной ответственности — и при этом защитит от преступных покушений на наши мозги. И неважно совершаются ли они при помощи «глубоких фейков» или обычных.