Есть чат-бот телеграм, сфера такси. Самописный на python. Исходники есть. Нужно найти и исправить ошибки в чужом коде. + сделать допник в виде статистики заказов общих, оформленных и отмененных. С перспективой дальнейшего сотрудничества.
Необходим генератор тепловой карты на любом языке (python/php/js/node/...), используя любую пригодную библиотеку или фреймворк. На входе подаю 6 значений, на выходе получаю сгенерированную картинку, как в приложенном образце.
Создать парсер, который будет автоматически собирать и сортировать комментарии и посты из заданных групп ВКонтакте. Все данные должны сохраняться в отдельных файлах Google таблицы, где каждый файл будет соответствовать отдельной теме.используемые сервисы:ВКонтакте — для сбора данных.Google Таблицы — для хранения данных.Основные функции:1) Сбор комментариев:-Получение и сохранение комментариев из группы ВКонтакте на первой странице Google Таблиц.-Фильтрация по ключевым словам и стоп-словам. Отфильтрованные комментарии выгружаются на второй странице.2) Сбор постов:-Получение и сохранение постов из новостной ленты ВКонтакте на первой странице Google Таблицы.-Фильтрация и сохранение отфильтрованных постов на второй странице.3) Фильтрация данных:-Ключевые слова: слова или фразы, которые позволяют выбирать нужные комментарии и посты.-Стоп-слова: Слова или фразы, которые исключают ненужные комментарии и посты.Особенности:-Темы: Для каждой темы создается отдельный файл в Google таблице с настройками для анализа.-Количество файлов: Возможность создания 10 и более файлов для разных тем.-Настройки парсинга: Каждый файл имеет свои ключевые слова, стоп-слова и время выгрузки.Управление процесса:Админпанель: -Настройки парсинга (списки групп, ключевые слова и стоп-слова, время выгрузки) управляются через админпанель.Запуск: -Скрипт запускается и работает на сервере, а не на локальном компьютере.Требования:Язык разработки: Python.
Создать парсер, который будет автоматически собирать и сортировать комментарии и посты из заданных групп ВКонтакте. Все данные должны сохраняться в отдельных файлах Google таблицы, где каждый файл будет соответствовать отдельной теме. используемые сервисы: ВК — для сбора данных. Google Таблицы — для хранения данных. Основные функции: 1) Сбор комментариев: -Получение и сохранение комментариев из группы ВКонтакте на первой странице Google Таблиц. -Фильтрация по ключевым словам и стоп-словам. Отфильтрованные комментарии выгружаются на второй странице. 2) Сбор постов: -Получение и сохранение постов из новостной ленты ВКонтакте на первой странице Google Таблицы. -Фильтрация и сохранение отфильтрованных постов на второй странице. 3) Фильтрация данных: -Ключевые слова: слова или фразы, которые позволяют выбирать нужные комментарии и посты. -Стоп-слова: Слова или фразы, которые исключают ненужные комментарии и посты. Особенности: -Темы: Для каждой темы создается отдельный файл в Google таблице с настройками для анализа. -Количество файлов: Возможность создания 10 и более файлов для разных тем. -Настройки парсинга: Каждый файл имеет свои ключевые слова, стоп-слова и время выгрузки. Управление процесса: Админпанель: -Настройки парсинга (списки групп, ключевые слова и стоп-слова, время выгрузки) управляются через админпанель. Запуск: -Скрипт запускается и работает на сервере, а не на локальном компьютере. Требования: Язык разработки: Python.
Добрый день! нужна помощь чтобы достать все разговоры с общего диска в Битриксе, скачать их Python скриптом и обработать. Задача не сложная если разбираетесь в архитектуре Битрикса. Скрипт в целом уже написан, нужно только лишь помочь с настройкой API чтобы правильно забирать голосовые файлы mp3.
По сути есть уже готовое решение: https://github.com/AlexanderTurkin/wildberries-analytics-api-parser/tree/main Нужно его просто чуть доработать под мои нужды. Логика работы: 1. Скачиваем кеи за 3 месяца 2. Скачиваем кеи за 1 месяц 3. Скачиваем кеи за неделю 4. Вычленяем из этих баз только артикулы (дам готовый Python скрипт) 5. Берем все артикулы с частотой (от 100 - из недельной таблицы, из остальных таблиц - все артикулы) 6. Сохраняем в MySql 7. Делаем отправку сообщения в Telegram о том, что данные успешно добавлены в БД (там простой get запрос, я вам его дам) Или в случае ошибки, так же отпраляем информацию в Телеграм. Иногда ВБ не отдает ключи, поэтмоу нужно, чтобы скрипт делал несколько итераций и скачивал кеи в любом случае. Скрипт нужно поставить на ежедневную работу по расписанию. Вообще, это только один маленький скрипт, который необходим. Сейчас многое написанно на ZennoPoster, хотим переписать на Python и найти разработчика, который смог бы это поддерживать в случае необходимости. Также еще много чего нужно будет переписать на Python.
Техническое Задание для Программиста Создать программное обеспечение для автономного взаимодействия с пользователями на Discord сервере, используя последнюю версию ChatGPT для естественных диалогов на английском языке Интерфейс и Подключение: - Интуитивно понятный пользовательский интерфейс - Прямое подключение к Discord аккаунту - Поддержка Proxy для безопасности и анонимности Диалоговая Система: - Интеграция с последней версией ChatGPT - Диалоги только на английском языке Функциональные Возможности: - Автоматическое подключение и авторизация на Discord серверах - Настройка параметров диалогов через интерфейс - Логирование всех сообщений для анализа Технологии и Языки Программирования: - Python или JavaScript - Discord API для подключения - OpenAI API для использования ChatGPT Подключение и Proxy: - Безопасное подключение к Discord - Настройка Proxy через интерфейс Логирование и Аналитика: - Сохранение диалогов для анализа (JSON или CSV) - Просмотр и фильтрация логов через интерфейс
Необходимо переписать с нуля, либо доработать существующую программу. Небольшая python программа без интерфейса для автоматизации подписок на других людей с использованием библиотеки Playwright. В одной версии программа умеет авторизовываться и сохранять файлы куки. В другой версии до недавнего времени работала функция подписок (возможная ошибка: не может найти кнопку). Что необходимо сделать: 1. Исправить функцию подписок 2. Изменение логики программы: На данный момент программа открывает 3 окна и одновременно может запустить 3 аккаунта в работу. Убрать эту возможность и сделать в одном потоке (есть старые версии, где было в одном потоке). При этом должна сохранятся возможность запускать несколько версий программы. 3. Сделать возможность привязки прокси к конкретному аккаунту. 4. Привязка к каждому аккаунту своего уникального фингерпринта(отпечатка браузера). 5. Исправить работу с капчей. Сервис: capguru 6. Исправить некоторые небольшие недочеты связанные с парсером, заморозкой аккаунта и тд.
Создать парсер, который будет автоматически собирать и сортировать комментарии и посты из заданных групп ВКонтакте. Все данные должны сохраняться в отдельных файлах Google таблицы, где каждый файл будет соответствовать отдельной теме.используемые сервисы:ВКонтакте — для сбора данных.Google Таблицы — для хранения данных.Основные функции:1) Сбор комментариев:-Получение и сохранение комментариев из группы ВКонтакте на первой странице Google Таблиц.-Фильтрация по ключевым словам и стоп-словам. Отфильтрованные комментарии выгружаются на второй странице.2) Сбор постов:-Получение и сохранение постов из новостной ленты ВКонтакте на первой странице Google Таблицы.-Фильтрация и сохранение отфильтрованных постов на второй странице.3) Фильтрация данных:-Ключевые слова: слова или фразы, которые позволяют выбирать нужные комментарии и посты.-Стоп-слова: Слова или фразы, которые исключают ненужные комментарии и посты.Особенности:-Темы: Для каждой темы создается отдельный файл в Google таблице с настройками для анализа.-Количество файлов: Возможность создания 10 и более файлов для разных тем.-Настройки парсинга: Каждый файл имеет свои ключевые слова, стоп-слова и время выгрузки.Управление процесса:Админпанель: -Настройки парсинга (списки групп, ключевые слова и стоп-слова, время выгрузки) управляются через админпанель.Запуск: -Скрипт запускается и работает на сервере, а не на локальном компьютере.Требования:Язык разработки: Python.
Создать парсер, который будет автоматически собирать и сортировать комментарии и посты из заданных групп ВКонтакте. Все данные должны сохраняться в отдельных файлах Google таблицы, где каждый файл будет соответствовать отдельной теме. Используемые сервисы: ВКонтакте — для сбора данных. Google Таблицы — для хранения данных. Основные функции: 1) Сбор комментариев: -Получение и сохранение комментариев из группы ВКонтакте на первой странице Google Таблиц. -Фильтрация по ключевым словам и стоп-словам. Отфильтрованные комментарии выгружаются на второй странице. 2) Сбор постов: -Получение и сохранение постов из новостной ленты ВКонтакте на первой странице Google Таблицы. -Фильтрация и сохранение отфильтрованных постов на второй странице. 3) Фильтрация данных: -Ключевые слова: слова или фразы, которые позволяют выбирать нужные комментарии и посты. -Стоп-слова: Слова или фразы, которые исключают ненужные комментарии и посты. Особенности: -Темы: Для каждой темы создается отдельный файл в Google таблице с настройками для анализа. -Количество файлов: Возможность создания 10 и более файлов для разных тем. -Настройки парсинга: Каждый файл имеет свои ключевые слова, стоп-слова и время выгрузки. Управление процесса: Админпанель: -Настройки парсинга (списки групп, ключевые слова и стоп-слова, время выгрузки) управляются через админпанель. Запуск: -Скрипт запускается и работает на сервере, а не на локальном компьютере. Требования: Язык разработки: Python.
Создать парсер, который будет автоматически собирать и сортировать комментарии и посты из заданных групп ВКонтакте. Все данные должны сохраняться в отдельных файлах Google таблицы, где каждый файл будет соответствовать отдельной теме.Используемые сервисы:ВКонтакте — для сбора данных.Google Таблицы — для хранения данных.Основные функции:1) Сбор комментариев:-Получение и сохранение комментариев из группы ВКонтакте на первой странице Google Таблиц.-Фильтрация по ключевым словам и стоп-словам. Отфильтрованные комментарии выгружаются на второй странице.2) Сбор постов:-Получение и сохранение постов из новостной ленты ВКонтакте на первой странице Google Таблицы.-Фильтрация и сохранение отфильтрованных постов на второй странице.3) Фильтрация данных:-Ключевые слова: слова или фразы, которые позволяют выбирать нужные комментарии и посты.-Стоп-слова: Слова или фразы, которые исключают ненужные комментарии и посты.Особенности:-Темы: Для каждой темы создается отдельный файл в Google таблице с настройками для анализа.-Количество файлов: Возможность создания 10 и более файлов для разных тем.-Настройки парсинга: Каждый файл имеет свои ключевые слова, стоп-слова и время выгрузки.Управление процесса:Админпанель:-Настройки парсинга (списки групп, ключевые слова и стоп-слова, время выгрузки) управляются через админпанель.Запуск:-Скрипт запускается и работает на сервере, а не на локальном компьютере.Требования:Язык разработки: Python.
Доработка Chrome/Firefox Extension написанного на TypeScript, для веб. страницы расширения исп. Bootstrap (или аналог для табличной верстки). GitHub ссылка на готовый проект расширения для доработки высылается исполнителю после отклика и обсуждения. Расширение нужно связать с Tg ботом, который активирует удаленно в Бд расширение на основе условия подписки на канал, которое Extension проверяет через API. Необходимо предусмотреть возможность отключения активации на основе истечения срока с момента запуска бота, Free-период например 4 месяца. Телеграм бот на Telegraf / Typescript с проверкой подписки на Тебеграм канал. Необходимо активацию расширения связать с запуском бота и Подпиской на канал. Нужно для заказа: 1. Доработка Chrome/Firefox Extension написанного на TypeScript, для веб. страницы расширения исп. Bootstrap (или аналог для табличной верстки) 2. Требования к Телеграм боту: Технический стек: Telegraf / TypeScript (+ можно использовать NestJS) или Aiogram / Python, для БД: mysql подробнее по ссылке : https://mangrove-straw-659.notion.site/YouTube-Booster-Extension-adapt-to-freelance-bb2aa627d819466f93e7bacba8ee07c0?pvs=4
На сайте вижу таблицу с человекочитаемой информацией. При анализе POST/GET-запросов часть информации представлена в виде: "param1": "Pp0AjmEF59VG/iibG7bN9A==", "param2": "epVx2pM09enXAWjgpYi7d9wQjps0gVgr+ctq49nnajI=" На фронте вижу, есть функция на js, которая делает декодирование. Требуется помощь в декодировании. Для принятия работы достаточно будет написать функцию на python, которая принимает на вход значение "Pp0AjmEF59VG/iibG7bN9A==", в ответ отдаёт декодированное сообщение. Возможно, во входных данных потребуется добавить постоянно меняющийся ключ, наподобие такого: getDecodedString(str, key)
Ищу back-end разработчика с уровнем middle для доработки моделей системы, проект большой и сложный,. Обязательно:- Опыт коммерческих проектов на python- Ответственный. Просим оставлять в отклике примеры ваших работ или описание проектов, Ответственный над которыми вы работали, а также контакт для связи в Telegram. Компании прошу не беспокоить.Цена за час 1000-1400 в зависимости от опыта.
Требуется написать код Python для отправки запросов API и обработки информации, которую он пришлет. В гугл таблице будут данные с которыми нужно поочередно отправить каждый запрос. Полученную информацию из API нужно обработать (выполнить небольшие вычисления) и записать в базу данных. По определенным параметрам из базы выбрать нужные данные и отправить их в ноушен. Скрипт должен автоматически запускаться раз в 72 часа для отправки запросов и обработки информации. Скрипт должен быть устойчив к ошибкам и автоматически перезапускаться или восстанавливать свою работу после сбоев.