Не забудьте поширити ❤️
Практично всю історію сучасних технологій можна розглядати як нескінченну спробу автоматизувати повсякденні завдання розробників. Ця ідея стоїть і за новим інструментом Copilot від веб-сервісу GitHub, що належить Microsoft. Інструмент буде доступний в середовищі розробки з відкритим вихідним кодом Visual Studio Code.
GitHub описує Copilot як «ІІ-напарника для парного програмування» (популярна практика, при якій розробники спільно пишуть один код). Однак крім очевидних переваг, новинка також викликає багато питань і побоювань. Розбираємося, що може піти не так.
Як працює Copilot
Copilot заснований на технології, розроблений OpenAI, і навчений на мільярдах рядків публічно доступного коду. Він здатний генерувати код, готовий для практичного застосування. Для цього достатньо лише кілька підказок від розробника.
Інструмент допоможе досвідченим програмістам заощадити час на пошук шаблонного коду, який потрібен для виконання простих завдань. Новачкам він полегшить вивчення нових мов програмування і концепцій розробки.
Copilot використовує нову технологію під назвою Codex, створену на основі мовної моделі GPT-3. З її допомогою він синтезує код прямо в Visual Studio Code, позбавляючи від необхідності витрачати час на пошуки базового коду в Google і Stack Overflow (що поширене навіть серед дуже досвідчених розробників).
Новинка стала результатом стратегічних вкладень Microsoft за останні роки. Серед них: покупка GitHub за $7,5 млрд, випуск opensource-версії інструменту розробки Visual Studio Code і торішні інвестиції в OpenAI в розмірі $1 млрд.
GitHub назвав 10 найпопулярніших мов програмування
Які викликає побоювання
Незважаючи на всі переваги, впровадження Copilot також викликає багато запитань. Зокрема, щодо авторських прав на програмне забезпечення, ліцензування та ефективність навчання ІІ-моделі на фрагментах коду, які, безсумнівно, містять помилки.
В цілому, дослідники вважають законним використовувати публічні набори даних для навчання ІІ-моделей. Однак ситуація ускладнюється, коли ці набори застосовуються при створенні комерційних продуктів.
- Дозвільні opensource-ліцензії, такі як Apache 2.0, дозволяють кожному робити з кодом що завгодно.
- Інші вимагають розкриття інформації про внесені зміни.
- А ліцензії нового покоління і зовсім накладають обмеження на те, як треті сторони можуть використовувати публічно доступний код при створенні хмарних сервісів.
У розділі питання та відповіді щодо етики ІІ GitHub відкрито визнає: «У світовому публічному доступі розміщено багато коду з ненадійними шаблонами, помилками і посиланнями на застарілі API та ідіоми. Синтезуючи пропозиції на основі цих даних, Copilot також може створити код, що містить ці небажані шаблони».
У своїй публікації на Hacker News CEO GitHub Нат Фрідман визнав, що Copilot викличе суперечки в деяких областях: «Ми очікуємо, що в найближчі роки інтелектуальна власність і ІІ стануть предметом цікавих політичних дискусій по всьому світу, і ми готові прийняти в цьому участь».
Прогнози на майбутнє
На даний момент важко передбачити, що чекає Copilot. За винятком 5G, в останні роки жодна технологія не обговорювалася настільки голосно, як штучний інтелект.
Автономні машини, які, як обіцялося, з’являться до 2021 року, ще далекі від досконалості. Компанії з усіх сил намагаються зрозуміти, як застосувати ІІ в своїх технічних стратегіях. А технології розпізнавання осіб на базі ІІ стикаються з несхваленням в міру того, як в суспільстві зростає розуміння їх можливостей.
Однак розробники ПЗ – підходяща аудиторія для ІІ-інструментів. Вони усвідомлюють можливості автоматизації, а також її переваги і обмеження. Але є і щось страшне в передачі завдань обчислення і програмування комп’ютерів.
У кращому випадку, Copilot стане свого роду «пропонованими відповідями» для коду, а також проривним lowcode-інструментом. Автоматично згенеровані слова і фрази в листах і текстах широко використовуються мобільними пристроями і офісним ПЗ. Якщо вони звучать розумно, то ми використовуємо їх, а в іншому випадку ігноруємо.
У гіршому випадку, Copilot видаватиме непотрібні поради, взявши за основу недбало написаний і небезпечний код, який є фундаментом значної частини критичної важливої інфраструктури. Тоді інструмент чекає провал, як це сталося з чатботом Tay від Microsoft, який з’явився в 2016 році та всього через добу після запуску навчився ображати людей.
Ми у соцмережах: