Лента новостей
Лента новостей
18:46
Видео
Экипажи Су-25 ударили ракетами по украинскому опорнику в Курской области
18:35
Слуцкий: пошлины США подтвердили верность курса РФ на экономический суверенитет
18:33
Лучшую горнолыжницу Кубка мира увезли с переломами на вертолете
18:01
Белый дом объяснил отказ от новых пошлин против России и ряда стран
18:00
Захарова ответила на слова Стубба о восстановлении отношений с Россией
17:48
Видео
Российский FPV-дрон уничтожил украинскую станцию РЭБ в Сумской области
17:15
Видео
Мурманского чиновника обвинили в получении 1,8 млн рублей взятки
17:03
Видео
Горемыкин: МО РФ поддержит идею о ветеранском статусе для военкоров
16:57
Видео
Лавров: РФ поможет Альянсу государств Сахеля нарастить боевой потенциал
16:38
Песков: в вопросе Украины все хотели бы быть услышанными
16:22
В РФС поблагодарили «Црвену Звезду» за готовность поделиться стадионом
16:06
Видео
Танкисты группировки «Запад» разгромили укрепления ВСУ в зоне СВО
15:50
Видео
В Ленобласти ищут пса Блюма, уехавшего от хозяйки на электричке
15:46
Видео
На центральной площади Амстердама взорвался автомобиль
15:30
В МВД предупредили об уголовном сроке за передачу WhatsApp* мошенникам
14:57
Вирусолог ответил на слова главы ВОЗ о возможной пандемии «уже завтра»
14:46
Видео
Минобороны опубликовало кадры освобождения Веселого в ДНР
14:38
Видео
Трамп не разрешил заменить яйца на муляжи в Белом доме на Пасху
Почему нейросеть угрожает уничтожить нашу привычную жизнь и как этого не допустить
© Mohssen Assanimoghaddam dpa Globallookpress

Почему нейросеть угрожает уничтожить нашу привычную жизнь и как этого не допустить

После громкой аферы московского студента, который написал диплом с помощью машинного разума, проблему, как отличить искусственный интеллект от живого человека, начали обсуждать в Государственной Думе.
Реклама
Почему нейросеть угрожает уничтожить нашу привычную жизнь и как этого не допустить
© Mohssen Assanimoghaddam dpa Globallookpress

Накануне в центре скандала оказался выпускник Государственного Гуманитарного университета, который защитил выпускную работу, написанную с помощью нейросети ChatGPT, на оценку «удовлетворительно». Чем опасны нейросети и как их остановить - изучала Наталья Жадько. 

Студент в итоге признался преподавателям, каким образом он написал диплом. Это вызвало неоднозначную реакцию в ВУЗе, где сейчас проводят проверку. После этого случая в университете предложили ограничить использование нейросети ChatGPT в образовательных учреждениях.

«Мне хотелось попробовать что-то новое, не писать самому, не просить кого-то написать за меня. Я подумал, что можно попробовать через чат-GPT. Если говорить про диплом, то я пишу запрос - как написать ведение, такое содержание я ожидаю увидеть в этом введении - и машина, исходя уже из этого запроса, генерирует текст по моей теме диплома», - рассказал студент Александр Жадан.

Но запретить использовать искусственных помощников совсем эксперты считают бессмысленным. После этого скандального случая, в Государственной Думе предложили другое решение – изменить формат проведения экзаменов.

«Менять экзамен, где читают написанные тексты на экзамен, где проверяют творческие способности. Если мы студентов во время экзамена спрашиваем, о том, как они понимают материал, что они нового в него внесли - никакая нейросеть за них не ответит», - сказал Олег Смолин, первый зампред комитета ГД по образованию.

А вот в одном из лицеев Нижнего Новгорода идею с использованием машинного интеллекта в процессе обучения поддерживают. О том, что школьники перестанут выполнять домашнее задание самостоятельно или бесчувственная программа и вовсе заменит педагогов здесь не опасаются. Более того, здесь предлагают идею того, чтобы нейросеть помогала выполнять рутинную работу.

И всё же чат-боты заставляют людей опасаться. Работа нейронных сетей и стремительное развитие технологии искусственного интеллекта выглядит пугающей - что если машина заменит человека или некоторые профессии. Защитники и разработчики искусственного интеллекта проблемы в этом не видят. Они считают, что человек наоборот сможет больше успевать.

Но есть и другие проблемы – нарушение авторских прав при создании того или иного контента или продукта. Например, на создателей крупнейшей нейросети владельцы одного из американских фотобанков, уже подали в суд. Причина – нарушение авторских прав на миллионы изображений, на которых обучали нейросеть. Уже сейчас эксперты утверждают, что развитие технологии машинного интеллекта требует более чёткого законодательного урегулирования.

В сентябре прошлого года в технополисе «ЭРА» продемонстрировали, как способна работать специальная нейросеть ВС РФ, распознающая огнестрельное и холодное оружие в руках человека. 

Реклама
Реклама