Як штучний інтелект змінить роботу професійних письменників

Професійно писати якісні тексти дуже непросто. Будь-який блогер, журналіст чи репортер повинен одночасно слідкувати за всіма трендами в своїй галузі, опановувати нові методи письма, в той же час, створювати унікальний, переконливий та вчасний контент. Це ж стосується й вчених, дослідників, аналітиків, чия робота пов’язана із написанням великої кількості текстів.

Доступність інформації в інтернеті не полегшує роботу, оскільки суцільний потік ускладнює виокремлення потрібних даних. До всіх описаних вище навичок слід додати вміння швидко та якісно обробляти інформацію. На щастя, допомогти можуть технології штучного інтелекту. Як саме використання алгоритмів сприятиме продуктивній роботі та змінить побут професійного письменника — в статті видання TNW.

writer-1421099_1280

Смарт-правки

Письменник Джордж Р. Р. Мартін (George R. R. Martin), автор серії книг «Пісня льоду й полум’я», в одному з інтерв’ю зізнався, що уникає використання сучасних текстових програм через їх настирливі автовиправлення та перевірку написання слів. Розробники алгоритмів для роботи з текстами постійно намагаються створити інструмент, який би дійсно допомагав. Однак не тільки Мартін, а й тисячі інших авторів засвідчать, що результатом зусиль стали програми, що тільки дратують і відволікають користувачів, які хоч трохи вміють компонувати слова у речення.

Втім, оптимісти застосування штучного інтелекту стверджують, що алгоритми вчаться розуміти контекст і тон написаного тексту. Наприклад, оновлений редактор в Microsoft Word використовує AI-алгоритм для правок і розуміє нюанси в прозовому тексті краще, ніж інструменти на основі коду та логіки. Програма виділяє граматичні й стилістичні помилки, а також використання непотрібних складних слів і терміни, що вживаються занадто часто. Наприклад, алгоритм розпізнає, коли слово «справді» (англ. really) вживається для підкреслення певної думки, а коли воно позначає запитання.

Алгоритм видає промовисті аргументи на користь своїх виправлень, рекомендує інші варіанти формулювання для тексту, який вважає неправильним. Так, якщо програмі не подобається речення з дієсловом у пасивному стані, вона запропонує варіант з переписаним дієсловом в активному стані. Звичайно, робота цього інструменту ще далека від досконалості, але професійні автори оцінюють його більш схвально, ніж попередні версії.

Ринок швидко розвивається і на ньому конкурує все більша кількість учасників: Grammarly, давно відомий нашим користувачам, як розширення для браузеру, що перевіряє помилки, стиль і якість тексту; Atomic Reach, в якому машинне навчання застосовується для перевірки читабельності написаного контенту.

Швидке сканування написаних документів

Написання змістовного тексту базується на якісній роботі з ввідними даними. Як правило, для підготовки унікального контенту автори опрацьовують документи, що стосуються даної проблематики, порівнюють різні точки зору тощо. Сьогодні ж серед мільйонів онлайн-сторінок важко виокремлювати не те що корисні ідеї — ба навіть правдиві та релевантні вашій темі матеріали.

Штучний інтелект підкорює дослідження текстів, створюючи «розумні» саммарі (розширені висновки) з документів. У компанії Salesforce, що пропонує клієнтам CRM-систему, розробили алгоритм, який генерує фрагменти тексту з описом змісту повного документу. Хоча подібні технології вже існують деякий час, це рішення відрізняється тим, що працює на основі машинного навчання. Система комбінує контрольоване і посилене вивчення — поряд з технологією написання саммарі працюють і живі супервайзери, що наглядають за змістом. Система враховує їх виправлення і надалі самостійно корегує свій текст.

Ще один інструмент — Summarizer від Algorithmia, який надає розробникам бібліотеки, що легко інтегруються в ПЗ і допомагають створювати саммарі текстів. Подібні рішення дозволяють авторам текстів швидко опрацьовувати матеріал і виявляти дійсно корисний для роботи контент. Також, розробки допоможуть редакторам обробляти сотні електронних листів із прес-релізами, пітчингами і «цікавими унікальними статтями», виділяючи ті, на які дійсно слід звернути увагу.

Активність, з якою розробники взялися за опрацювання текстів зумовлена розвитком технології автоматичної обробки текстів природними мовами (англ. Natural Language Processing, NLP). Завдяки їй, машини вчаться розуміти загальний зміст тексту і взаємозв’язки між різними елементами й суб’єктами. Звичайно, ніяка технологія не здатна вихопити з тексту головні думки та скомпонувати висновки так, як це зробить живий (і розуміючий) автор. І фахівцям, що працюють над автоматичним створенням саммарі потрібно подолати ще багато перешкод перед тим, як текст від машини матиме вигляд логічного пов’язаного оповідання. Все ж, останні розробки дають певне уявлення про те, як виглядатиме процес читання в майбутньому.

«Розумніший» пошук і більше

Яким би якісним і унікальним не був ваш текст, головне — це розмістити його там, де знаходиться потенційна аудиторія. Інакше контент не принесе користі. До цього часу автори завзято додавали в статті ключові слова, щоб пошукові алгоритми швидше знаходили текст і показували його якомога вище у результатах пошукової видачі. Дженаро Куофано (Gennaro Cuofano) з компанії WordLift, що спеціалізується на розробці інструментів для семантичної Мережі, пояснює ситуацію з контентом у пошукових системах:

«— Хоча Google взяла на себе величезний шматок роботи по структуризації інтернету, запровадивши сторінки видачі за рейтингом, вона також посприяла тому, що ключові слова стали важливішими за сам контент. Автори прикладають зусилля для підвищення не якості тексту, а його пошукового рейтингу. Таким чином, гірші матеріали опиняються на кращих позиціях в результатах пошуку.»

Завдяки поширенню AI-технологій пошукові алгоритми вчаться розуміти текст і змінюють правила для SEO-оптимізації контенту. Дженаро констатує, що журналісти і письменники можуть знову писати для людей, а не для пошукових сайтів. Чекатимемо на появу якісніших матеріалів у результатах пошуку та на веб-сторінках в цілому.

Від обробки текстів природними мовами програми перейдуть до розуміння текстів, створених природними мовами (англ. Natural Language Understanding, NLU). Куофано підсумовує, що в той час як NLP означає структурування даних та редагування їх для подальшого читання машиною, NLU означатиме роботу з неструктурованими і нечіткими вхідними даними, які трансформуватимуться у вихідний формат, близький до людського розуміння.

Потенційно, розвиток останньої технології сприятиме масовому поширенню алгоритмів-письменників, а це своєрідним чином вплине на величезну галузь створення письмового контенту. «На сьогоднішній день більшість матеріалів у Мережі — це інструкції, пояснення і описи, як зробити потрібну роботу певним чином, — констатує Куофано. — Це логічно для світу, в якому люди відповідають за здійснення більшості задач. Однак, у близькому майбутньому алгоритми штучного інтелекту виконуватимуть роботу — тож людям доведеться писати не про те, як виконувати поставлену задачу, а про те, чому ми робимо саме це. Отже, потрібно вже сьогодні орієнтуватися на створення контенту, що матиме більший “строк придатності” і переживе свого автора.»

БІЛЬШЕ ЦІКАВОГО

Джерело: The Next Web