Чому це спрацювало
Чотири речі готові до того, як AI побачив проект.
Дивлячись на 22 години (включно з ~4.5 годинами підготовки в самому початку), легко подумати що AI зробив магію. Це не так. Без чотирьох речей я б не вклався у цей строк.
AI це інженер який щойно прийшов до команди: він пише код, але не знає вашого продукту, вашого досвіду, вашого дизайну. Все це треба покласти йому на стіл до того, як він почне писати.
01
Досвід з дашбордами і високонавантаженими інтерфейсами
Я раніше розробляв дашборди і admin-tools з нуля, плюс переробляв вже існуючі. Цей досвід дав мапу типових проблем UX в таких продуктах і інтуїцію коли AI пропонує "технічно правильне" але не те що працює у цьому контексті.
Наприклад, AI дефолтом пропонував tabs для 12+ розділів у Validator detail. Я знав що тут потрібна групована sub-nav, бо після сьомого табу патерн ламається. AI не запропонував би це сам. Без досвіду я б повірив у "сучасні таби".
Що це дало: десятки зекономлених "ні, не так". Я ловив дефолтні промахи AI ще до того, як він встигав їх закодити.
02
Готова система. Продукт був гарно продуманий.
Backend CatBM був чистим: 14 GET-ендпоінтів з послідовним URL-design, JSON структура з Kubernetes-style apiVersion/kind, чіткі сутності (Validator, Application, User, Right, Party). Я не reverse-engineer-ив бекенд, не вгадував які поля що означають. Просто читав JSON-и і domain model сам себе пояснював.
Якщо API хаотичний, перші 4-6 годин йдуть на reverse engineering. Тут я витратив на це нуль.
Без чого було б важче: якби домейн-модель була розкидана між endpoint-ами без зрозумілої структури, AI почав би вигадувати свої сутності.
03
Готовий дизайн. Кілька сторінок і дизайн-система.
В Figma вже лежала CatalyX Design System від дизайнера: токени (cobalt, gray ramp, success/warning/error), типографічна шкала Inter плюс Space Grotesk wordmark, готова Validator details сторінка як reference frame. Я не вибирав кольори, не сидів над "розмір 11 чи 12, line-height 1.4 чи 1.5". Все було.
Я брав tokens, передавав AI разом зі screenshot-ом через Figma MCP, і він застосовував. На lookalike-копії UX-paradigm-у пішло близько 2 годин замість 2 днів.
Без чого було б важче: з нуля треба вигадувати tokens, ієрархію, типографіку, це окремий проект на тиждень як мінімум.
04
~4.5 години підготовки на самому початку
Перші ~4.5 години (всередині тих 22 годин) я витратив на чорнову роботу до того, як AI взагалі почав щось писати. Скрапнув живий dev-сайт через cURL з реальним Bearer-токеном, зберіг 43 JSON-snapshot-и всіх GET-ендпоінтів, підняв локальний python-мок який віддавав UI плюс mock API з SPA fallback, pretty-print-ив оригінальні JS і CSS bundle для читання.
Паралельно дістав tokens і screenshots з Figma через MCP, написав три документи в Obsidian: повний UI inventory, 4-шаровий UX-аудит і ТЗ на Phase 1 з sitemap і milestones. Після цих 4.5 годин AI отримав живий мок API з реальними даними, дизайн-tokens перед очима і документ "що саме треба зробити".
Без чого було б важче: без цієї підготовки AI пішов би в random напрямок і вигадував. З нею контекст став таким, що 22 години стали реалістичним строком.