Эта версия EyeAuras содержит десятки различных изменений и настроек в самом ядре системы - в конвейере захвата и обработки изображений.
Все это было сделано для того, чтобы выжать максимум производительности, удаляя вещи, которые на данный момент не нужны или которые долгосрочно оказались неэффективными. Тесты показывают, что в большинстве сценариев поиск на основе машинного обучения теперь примерно на ~15% быстрее в целом, а в некоторых экстремальных случаях он в два раза быстрее, чем раньше. Но основным параметром, который был улучшен, является задержка. Так что теперь программа реагирует гораздо быстрее на все, что происходит на экране - на каждом этапе в системе (захват изображения, применение эффектов/изменение размера, подготовка его для ML/анализа изображения и доставка результатов анализа (прогнозы и найденные ограничивающие рамки) теперь доставляются в триггеры гораздо быстрее. В некоторых случаях задержка снизилась с миллисекундного диапазона (т.е. 1+ миллисекунда) до менее чем 100 микросекунд. Это будет очень заметно в сценариях с высокой частотой, например, при попытке реагировать на какой-либо объект на экране (например, позиции предметов на земле в Path of Exile или мини-игры в стиле aimbot, где вам нужно отслеживать объект. Это не последняя итерация улучшений, я планирую еще как минимум два больших улучшения (в основном в области машинного обучения), но они будут доставлены позже, возможно, даже после следующего большого релиза в "стабильный" канал в конце февраля.
Огромное обновление подсистемы скриптов. Все это было сделано в рамках работы над Деревьями поведения - с самого начала быстрой и удобной подготовкой меньших фрагментов кода, встроенных прямо в само дерево, была главной целью, и текущая реализация слишком тяжела для этого - она мощная, но слишком многословна и тяжеловесна.
Сейчас это ранняя фаза тестирования, и в ближайшие недели будет много обновлений, связанных со скриптами, но если вы хотите начать кодирование - не стесняйтесь пробовать новую систему и, если у вас есть вопросы, свяжитесь со мной в Discord и спросите что угодно. Я и linqse сделаем все возможное, чтобы написать документацию о новом API с примерами и всем остальным.
Несколько заметок:
Все еще в разработке, на данный момент ядро в основном готово и уже функционирует, но еще не достаточно стабильно. Это будет основным фокусом на следующие две недели. Перед их выпуском планируется:
a) Выпустить все вещи, которые сейчас находятся в стадии "альфа" и по умолчанию отключены:
b) сделать ровно 1 релиз в "стабильную" ветку, который будет включать все вышеуказанное, но не будет включать деревья. Жизненный цикл стабильных версий составляет примерно 2-2,5 месяца, поэтому это даст достаточно времени для тестирования деревьев в альфа
Вот пример того, как дерево поведения выглядит в действии для бота Lineage 2 - это сочетание WebUI (окно в правой части экрана) и Дерева поведения для логики. Этот бот выбирает цель, атакует с использованием комбинации навыков, лечит/вызывает питомца при необходимости и делает несколько других вещей.
P.S. Это было записано не для публичных демонстрационных целей, поэтому есть некоторые сбои с индикаторами прогресса бота UI, главное здесь - дерево