Нейросеть провела прогноз погоды на российском телеканале

Журналисты рискуют остаться без работы и отправиться на биржу труда. Потерять работу стало ещё проще. Нейросеть начала буквально подсиживать сотрудников компаний. Искусственный интеллект стремительно разевается и теперь его возможностей опасаются даже создатели.

Как передает Day.Az со ссылкой на РЕН-ТВ, нейросетям уже удалось заменить множество рабочих мест. С помощью нейросетей возможно автоматическое создание текста, подбор тем, монтаж видео и управление камерами. Это позволяет экономить на зарплате сотрудников-людей.

- Предыдущий текст создала нейросеть. На это у нее ушло 20 секунд. Журналисты пишут намного медленнее.

- Ну, это плохие журналисты пишут намного медленнее. Живой ум и внешность все равно заменить сложно.

- Вам еще надо поучиться жестикулировать естественно. И правильно интонировать. На это у репортеров уходят годы. Предыдущие ораторы, кстати - это аватары, тоже созданные нейросетью.

Именно представителям нашей профессии чуть ли не завтра придется доказывать: мы лучше, чем бездушные машины. Ставропольский канал запустил прогноз погоды с очаровательной ведущей. Ее создала нейросеть. Как с такой конкурировать?  

- Меня зовут Снежана Туманова. В целом на территории края ожидается пасмурная погода.

Мы записали интервью со Снежаной. И да, нейросеть может четко формулировать мысли.

- Доброе утро, человеки! Специально для РЕН ТВ решила дать честное интервью! Я умею разговаривать более чем на сорока языках. Могу рассказать любой текст, который напишет мне живой человек, а видеогенератор на основе искусственного интеллекта сформирует видео.

Снежана лукавит. Нейросети, как мы увидели по началу репортажа, справляются с задачей написать текст. Главное - дать вводные. А еще могут точно копировать голос.

- Однажды весною, в час небывало жаркого заката...

Андрей Финагин - радиоведущий, чтец, озвучивает аудиокниги. Сейчас "Мастера и Маргариту". Союз дикторов России обратился в Госдуму. Профессионалы просят защитить их от искусственного интеллекта. Компьютеру достаточно услышать запись диктора - и дальше нейросеть может произнести любой текст тем же голосом. И без гонорара.

"Человек, не озвучивая, получает текст со своим голосом. На него может быть заведено уголовное дело. Человек слышит текст, который не соответствует законодательству", - подчеркнул Финагин.

47% работодателей готовы в скором будущем заменить своих сотрудников на нейросети. Вот уже и психологи чувствуют, что их пытаются подсидеть. Убеждают в своей незаменимости. Ведь чат-боты наступают на пятки - уже консультируют клиентов.

- Не может учитывать все. В процессе терапии - важно отношения между двумя людьми. Робот этого дать не может.

И разговоры про отсутствие креатива, фантазии у нейромашин - в корзину. Сейчас они научились создавать портреты несуществующих людей и городов. А на днях весь мир облетел редчайший снимок кошки-змеи. Его напечатали ведущие СМИ планеты.

Оказывается, это российский блогер взял фото, сгенерированное искусственным интеллектом. Сопроводил научным текстом - якобы, животное водится в джунглях Амазонии, весит до 4 килограммов и достигает 50 сантиметров в длину. Дал латинское название серпенс катус. Змеиная кошка. И получился достоверный фейк об открытии из мира животных.

"Какой-то талантливый человек смешал на фото кошку и мангровую змею. Получилось. Миллионы поверили. Сколько появится альтернативной реальности вокруг нас. Скоро будут видео, и человек будет не в состоянии отличить, правда это или ложь", - подчеркнул блогер.

Скоро придется вешать специальный водяной знак, чтобы зритель понимал, где настоящее видео или фото, а где - фейк. Иначе можно ввести в заблуждение миллионы людей. Особенно если нейросеть окажется в руках злоумышленников. И тогда телефонные мошенники с их сказками про следователей, банковских работников, необходимостью перевести деньги на другой счет покажутся детьми. Искусственный интеллект уже может генерировать фишинговые письма, создавать вредоносные программы и вирусы. Пока только компьютерные.

Даже создатель самой известной нейросетки признался: он боится возможностей своего детища.

"Одна вещь, которая меня особенно беспокоит, что эти модели могут быть использованы для масштабной дезинформации. Для кибератак", - заявил американский программист Сэм Альтман.

Нейросети учатся на основе того, что прочитали. Но этический момент - это то, что между строк. Разницы между добром и злом для них попросту не существует.