Цитата: jbionic от февраля 15, 2017, 19:10Худлиту всё равно нужна стилистическая обработка после механического перевода. Так что не думаю.
Конец профессии переводчика уже близок
https://www.facebook.com/GIGadgets.Fans/videos/1306731736072779/
Тим СОБАКИН СЕТНЫЙ ЯК |
Чтоб наши мысли не постиг соперник неприятный, давай придумаем язык, лишь нам двоим понятный. Мы буквы в середине слов отбросим незаметно - и будет через день готов язык вполне секретный! Вот мы хотим сказать "пельмень", но сократим вначале. И будем знать, что слово ПЕНЬ "ПЕльмеНЬ" обозначает. Слова нетрудно сократить! Запомним непременно: ВЫТЬ означает "ВЫходиТЬ", а ПЕНА — ПЕремеНА". КОмпоТ, пожалуй, будет КОТ, а НОС — "НасОС" хороший. Никто на свете не поймет, что КАША — есть КАлоША"... Мы начинаем говорить друг с другом постепенно: "Из класса нужно быстро ВЫТЬ, когда большая ПЕНА". — Накачивает НОС мячи... — В стакане КОТ из дыни... — А КАША сохнет на печи... — А ПЕНЬ в тарелке стынет... Что значит КОТ? Что значит ПЕНЬ? — Соображаем туго!.. И я боюсь, что через день мы не поймем друг друга. |
Цитата: jbionic от января 1, 2017, 16:59Оригинальная ἀναλογία
Ну т.е. вроде как если б люди не были никогда одноязычными и как если б мобильные операторы неожиданно отключили свои ретрансляционные антенны или спутник, обеспечивающие всеобщий выход во всемирную паутину к Google Translate для коммуникации.
Цитата: _Swetlana от декабря 5, 2016, 23:05
Хз.
Интеллектуальные агенты через обратную связь обучаются, классика жанра, подумала, мож и нс так стали обучать.
Цитировать8.2 Evaluation MetricsЯ так понял: программа давала два варианта перевода вместе (side-by-side), человек оценивал оба. По разнице, видимо, программа решала куда менять перевод. Но тут надо всё читать, чтобы понять в точности использовалась как использовалась разница в оценках.
We evaluate our models using the standard BLEU score metric. To be comparable to previous work [41, 31, 45],
we report tokenized BLEU score as computed by the //multi-bleu.pl script, downloaded from the public
implementation of Moses (on Github), which is also used in [31].
As is well-known, BLEU score does not fully capture the quality of a translation. For that reason we also
carry out side-by-side (SxS) evaluations where we have human raters evaluate and compare the quality of
two translations presented side by side for a given source sentence. Side-by-side scores range from 0 to 6,
with a score of 0 meaning "completely nonsense translation", and a score of 6 meaning "perfect translation:
the meaning of the translation is completely consistent with the source, and the grammar is correct". A
translation is given a score of 4 if "the sentence retains most of the meaning of the source sentence, but may
have some grammar mistakes", and a translation is given a score of 2 if "the sentence preserves some of the
meaning of the source sentence but misses significant parts". These scores are generated by human raters
who are fluent in both languages and hence often capture translation quality better than BLEU scores.
Цитата: _Swetlana от декабря 5, 2016, 22:38Да, для меня это в общем тоже нечто тёмное, поэтому и оставил на потом. А так, human evaluation это человеческая оценка. А side-by-side, "рядом", "на месте", что ли. Может быть это и есть обратная связь, о которой вы спрашивали?
Ещё бы какой ИИ мне это перевёл Незнакомая терминология, никогда ни нс, ни переводом не занималась.
Что такое "human side-by-side evaluation"?
Using a human side-by-side evaluation on a set of isolated simple sentences, it reduces translation errors by an average of 60% compared to Google's phrase-based production system.
Цитата: jbionic от декабря 5, 2016, 22:16однако в любом случае участие человека, который будет банально корректировать правила соответствия текстов, будет востребовано.Тут как бы НС не начала корректировать представления о соответствии текстов, при слишком восторженном к ней отношении. Машинно-опосредованный глобальный языковой союз.
Страница создана за 0.043 сек. Запросов: 21.