Ученые из Института AIRI, НИУ ВШЭ и Университета Иннополис показали, что большие языковые модели могут укорачивать русскоязычные тексты за счет обсценного лексикона без заметной потери смысла. Это проверяли на коротких предложениях и полноформатных новостных текстах, а также тестировали, насколько подобный подход переносится в более формальные сценарии без использования мата. Работа была представлена на конференции AAAI в (А*).
Telegram погасил 5-летние облигации на $2,3 млрд