Нейросети научились сжимать текст с помощью обсценной лексики

Ученые из Института AIRI, НИУ ВШЭ и Университета Иннополис показали, что большие языковые модели могут укорачивать русскоязычные тексты за счет обсценного лексикона без заметной потери смысла. Это проверяли на коротких предложениях и полноформатных новостных текстах, а также тестировали, насколько подобный подход переносится в более формальные сценарии без использования мата. Работа была представлена на конференции AAAI в (А*).

Главное сейчас