10 проривних технологій 2020. Частина 2

Продовжуємо огляд видання MIT Technology Review про потенційні проривні технологічні досягнення 2020 року.

Квантовий комп’ютер IBM Q

«Мегасузір’я» супутників

Компанії можуть задешево створювати, запускати та експлуатувати одночасно десятки тисяч супутників на орбіті.

  • Чому це важливо: супутникові системи можуть покрити територію Землі високошвидкісним інтернетом або перетворити орбіту планети на мінне поле.
  • Ключові гравці: SpaceX, OneWeb, Amazon, Telesat.
  • Доступність: вже зараз.

Тільки SpaceX хоче відправляти на орбіту в 4,5 раза більше супутників, ніж їх було запущено з часів «Супутника-1».


Раніше запуск супутника в космос вартував біля $24 800 за 0,45 кг та з врахуванням його ваги в 4 тони дорівнював $200 млн. Наразі ж супутник SpaceX Starlink важить 227 кг, а запуск багаторазової ракети Falcon 9 з десятками Starlink вартує біля $1240 за 0,45 кг.

Перші 120 супутників Starlink були запущені у 2019 році, а починаючи з січня 2020 року SpaceX планувала запускати партії по 60 супутників кожні 2 тижні. Їх конкурент OneWeb запустить понад 30 супутників до кінця 2020 року.

Але декотрі дослідники невдоволені діями космічних компаній, тому що непокояться про те, що супутники порушать астрономічні дослідження. Ще гірше – перспектива зіткнення супутників, котрі стануть мільйонами шматків космічного сміття та зроблять інтернет-послуги зі супутників та майбутні дослідження космосу практично неможливими.

У вересні 2019 року метеорологічному супутнику ESA довелось уникати зіткнення зі Starlink — це ознака того, що компанії не готові керувати таким великим об’ємом трафіку на орбіті Землі. Тому те, що відбудеться з «мегасузір’ями» супутників у цьому десятилітті, визначить майбутнє орбітального простору.

Квантова зверхність

Google представила перший доказ того, що квантовий комп’ютер перевершує класичний.

  • Чому це важливо: квантові комп’ютери зможуть розв’язувати проблеми, з якими не впорається жодна звичайна машина.
  • Ключові гравці: Google, IBM, Microsoft, Rigetti Computing, D-Wave Systems, IonQ, Zapata Computing, Quantum Circuits.
  • Доступність: від п’яти років та більше.

Квантові комп’ютери зберігають та обробляють дані зовсім інакше, ніж традиційні. Теоретично, вони можуть вирішувати певні типи завдань, на вирішення яких навіть найпотужнішому класичному суперкомп’ютеру знадобилося б тисячоліття.

Наприклад, злам сучасних криптографічних алгоритмів чи моделювання точної поведінки молекул для пошуку нових ліків та матеріалів.

Квантові комп’ютери доказують свою функціональність вже декілька років, але вони переважають класичні лише у певних умовах.

В жовтні 2019 року Google оголосила про першу демонстрацію «квантової зверхності»: комп’ютер з 53 кубітами (основна одиниця квантових розрахунків) виконав розрахунки трішки більше, ніж за три хвилини, тоді як найпотужнішому у світі суперкомп’ютеру знадобилося б на це 10 тис. років – у 1,5 млрд разів більше.

Квантовий комп’ютер Google

IBM оскаржила заяву Google, порахувавши, що різниця може бути лише у тисячі разів, але навіть за такою оцінкою це суттєве пришвидшення.

Демонстрація Google була лише доказом концепції, тепер же ціль в тому, аби створити машину з достатньою кількістю кубітів для вирішення корисних завдань. Це складний проєкт, оскільки чим більше кубітів, тим складніше підтримувати їх крихкий квантовий стан.

Квантовий комп’ютер IBM Q

Інженери Google вважають, що використаний ними підхід може привести до створення ПК з 100-1000 кубітів, чого буде достатньо для «корисної» роботи ПК, але якої саме невідомо.

Якщо для створення машини з мільйонів кубітів для зламу сучасних криптографічних систем будуть потрібні десятиліття, то квантовий комп’ютер для моделювання молекул має бути набагато простіше в розробці.

Мініатюрний штучний інтелект

Відтепер користувачі можуть запускати потужні алгоритми штучного інтелекту на телефонах.

  • Чому це важливо: пристроям більше не потрібно передавати дані в хмару, аби використати сучасні функції на базі технологій штучного інтелекту.
  • Ключові гравці: Google, IBM, Apple, Amazon.
  • Доступність: вже зараз.

У технологій машинного навчання є проблема: для створення найбільш потужних алгоритмів дослідники збільшують об’єми даних та необхідну для обробки обчислювальну потужність, для цього частіше зверталися до хмарних сервісів.

Це не лише збільшує викиди вуглецю, але й обмежує швидкість та конфіденційність додатків з використанням технологій штучного інтелекту.

Але є і відповідний тренд: ІТ-корпорації та дослідники працюють над новими алгоритмами для скорочення об’ємів наявних моделей глибокого навчання без втрати їх можливостей.

Розробники нового покоління спеціалізованих ШІ-чипів обіцяють збільшити обчислювальну потужність при невеликих габаритах чипу, а також зменшити енергоспоживання під час навчання та роботи машинного навчання.

Користувачі поступово отримують доступ до цих розробок. Наприклад, у травні 2019 року Google оголосила, що Google Assistant буде працювати на смартфонах без надсилання даних на сервери, а в iOS почали працювати локальне розпізнавання мови Siri та клавіатура QuickType. IBM та Amazon також пропонують платформи для розробки та розгортання «мініатюрного штучного інтелекту».

За допомогою мініатюрного штучного інтелекту наявні сервіси, наприклад, голосові помічники та автокорекція, а також технології обчислювальної фотографії будуть ставати краще та швидше без необхідності звернення до хмари для роботи моделі глибокого навчання.

Локальна робота штучного інтелекту допоможе в розробці нових додатків, таких як мобільний аналіз медичних знімків, покращить реакцію безпілотних автомобілів та забезпечить більшу конфіденційність даних, бо дані не доведеться надсилати до хмарного сховища для обробки.

Але це може призвести й до нових проблем: наприклад, буде складніше боротися з фальшивими відеозаписами та системами відеоспостереження. Тому дослідникам, інженерам та регуляторам доведеться працювати разом, аби розробляти міри по запобіганню потенційної шкоди.

Диференційна приватність

Використання методу, котрий додає випадкові данні при зборі конфіденційної інформації користувачів для їх захисту.

  • Чому це важливо: бюро перепису населення США все складніше зберігати в секреті зібрані дані. Метод може розв’язати проблему, покращуючи довіру громадян та стати прикладом для інших країн.
  • Ключові гравці: бюро перепису населення США, Apple, Facebook.
  • Доступність: наймасштабніше застосування – у переписі населення США у 2020 році.

У 2020 році в США пройде перепис населення, який поставить перед урядом задачу зібрати дані про 330 млн жителів, зберігши в таємниці їх особистість. Дані публікуються в статистичних таблицях, які вчені та політики аналізують і враховують при розробці законів або проведенні досліджень.

Згідно з законом, Бюро перепису населення повинно зберегти в таємниці інформацію про опитуваних, але існують способи деанонімізувати окремі особи, особливо, якщо дані перепису об’єднати з іншою загальнодоступною статистикою.

Тому Бюро вносить «шум» в дані, наприклад, змінює вік або колір шкіри людини, зберігаючи при цьому загальні показники вікової або етнічної групи. Чим більше «шуму», тим складніше деанонімізація.

Але надлишок шуму може зробити дані марними: наприклад, в переписі 2010 року після використання «шуму» з’явилися домогосподарства, в яких проживало 90 осіб.

Тому Бюро використовує диференційну приватність – математичний метод, котрий робить процес більш точним, вимірюючи, наскільки збільшується конфіденційність при додаванні шуму. Його вже використовують Google та Facebook для збору даних без ідентифікації конкретних користувачів.

Якщо перепис пройде успішно та дані опитуваних залишаться у безпеці, метод диференційної приватності будуть використовувати інші федеральні агенції. Також її запровадження розглядають декотрі країни, до прикладу, Канада та Велика Британія.

Обґрунтування кліматичних змін

Тепер вчені можуть визначити роль зміни клімату при екстремальних погодних умовах.

  • Чому це важливо: це надасть більш точне уявлення про те, як зміна клімату погіршує погоду, що потрібно зробити, аби підготуватися до небезпечних погодних явищ.
  • Ключові гравці: World Weather Attribution, Метеорологічний інститут Королівства Нідерланди, Red Cross Red Crescent Climate Centre, Оксфордський університет.
  • Доступність: вже зараз.

Через 10 днів після тропічного шторму Імельда у вересні 2019 року дослідники заявили, що на виникнення шторму вплинули зміни клімату.

Група World Weather Attribution зрівнювала комп’ютерні моделі світу, де зміна клімату не відбулося з моделлю реального світу та прийшла до висновку, що ймовірність шторму в реальному світі була у 2,6 раза вища, а його сила – до 28% потужніше.

Якщо на початку 2010-х років вчені неохоче пов’язували конкретні події зі зміною клімату, то до кінця десятиліття було проведено набагато більше досліджень, пов’язаних з екстремальними погодними умовами, а швидке покращення інструментів та методик зробило їх більш надійними та переконливими.

На це вплинули кілька причин. З одного боку, поліпшена деталізація й обсяг даних із супутників допоміг краще зрозуміти природну систему. З іншого, завдяки зростанню обчислювальної потужності вчені можуть створювати симуляції з вищою роздільною здатністю і проводити більше віртуальних експериментів.

Наразі у вчених достатньо статистичних даних, котрі дозволяють все більш впевнено стверджувати, що глобальне потепління генерує більш небезпечні погодні явища.

Тепер в дослідженнях можна відділити роль кліматичних змін від інших факторів та краще розуміти, до яких ризиків потрібно готуватися: наприклад, прогнозувати повені та сильну спеку з урахуванням глобального потепління. Також дослідження можуть допомогти вченим зрозуміти, як переналаштувати міста та інфраструктуру у більш мінливому кліматі.

БІЛЬШЕ ЦІКАВОГО:

Джерело: MIT Technology Review

Читайте также:

4 з 10 перекладачів втрачають роботу через штучниий інтелект

Штучний зір — наступний крок у розвитку мозкових імплантів

У Гарварді створили «розумну» рідинувластивості якої можна програмувати

Перекладач із собачого: які технології допоможуть вам краще зрозуміти вашого вихованця