Привет Нужно сделать тг бота на Python. Бот многопользовательский, для публикации отложенных постов в несколько каналов, публикации историй, граббинга постов из других каналов, также есть подписка с встроенной оплатой и реферальная система. Также имеются некоторые технические требования. Все подробно расписано в файлах. Бюджет не единоразовый. Ищем специалиста в долгосрок
1. Версия "кр*кнутой" Инфоклиники 4.0 2. Файл где расположена БД в режиме лайва: C://infoklinika/data/*******, СУБД под которой все это крутится называется Firebird. Грубо говоря исполнителю нужно будет подключаться к этому файлу , анализировать БД + ориентируясь на интерфейс Инфоклиники (потому что не всегда понятно за что отвечает переменная, придется немного додумывать) . 3. Необходимо, чтобы исполнитель написал сам МОСТ, логику вытаскивания чего-нибудь одного. По типу допустим актуальное расписание или полный список клиентов + привести к нашему стандарту . Мы посмотрим как это отрабатывает , выстроим начальное взаимодействие с БД и после можем расширять функционал погружаясь детальнее в БД 4. Идеальный язык для решения и подключения к этому файлу - Python , есть библиотеки которые упростят как минимум сам процесс подключения к БД 5. Так же продумать обратную связь, когда нам нужно что-то поменять в БД (допустим статус приема поставить в отменный) 6. Так же нужно проследить как Инфоклиника в интерфейсе реагирует на изменения напрямую в БД. приведу пример: допустим мы меняем статус приема на отменный и смотрим обновилось ли это в реал-тайме . Это довольно важно, чтобы не получалось так, что оператор видит устаревшие данные без каких-то доп. манипуляций (например обновить раздел , нажать SHIFT+F5 и прочее)
Добрый день!Ищем разработчика, который сможет реализовать скрипт или программу для автоматического сбора рейтингов компаний с платформы hh.ru. Рейтинги нужно собирать с отдельных страниц вакансий. Задача Разработать скрипт/программу, которая:Будет принимать список ссылок на страницы вакансий с hh.ru (список предоставляем в виде файла CSV, Excel или Google Таблицы).Автоматически заходить по каждой ссылке.Извлекать рейтинг компании с каждой страницы вакансии.Сохранять собранные данные в файл (CSV, Excel) или записывать их в Google Таблицы.Ключевые данные для извлечения:Название компании.Средний рейтинг компании.Технические требования:Поддержка динамического контента (например, с помощью Puppeteer, Selenium или другого инструмента).Возможность работы через прокси для обхода ограничений hh.ru (если требуется).Программа/скрипт должен быть простым в использовании.Желательно:Поддержка запуска скрипта как локально (например, через Python/Node.js), так и в облаке (например, AWS Lambda, Google Cloud Functions).Документация для запуска и использования. Ожидаемый результат На выходе скрипт/программа должна формировать таблицу со следующими данными:Ссылка на вакансию.Рейтинг компании
Опыт работы с React.js и Node.js Знание HTML, CSS, JavaScript, Python Опыт работы с MongoDB и Express.js Умение работать с Git и системами контроля версий Обязанности: Разработка и поддержка функционала CRM-системы Тестирование и отладка кода Оптимизация производительности приложений Участие в проектировании архитектуры системы Взаимодействие с командой разработчиков для достижения поставленных целей Необходимые навыки: Уверенные знания JavaScript (ES6+) Опыт работы с RESTful APIs Знание принципов DevOps (Docker, CI/CD) Опыт работы с системой тестирования (Jest, Mocha) Знание английского языка на техническом уровне
В личном кабинете продавца нужно сделать скрипты, которые прокачивали бы полностью все бухгалтерские и финансовые документы, которые там доступны. Например https://disk.yandex.ru/i/rXnMdv4Z2Kz39g https://disk.yandex.ru/i/2L1rmHolMmNxEQ https://disk.yandex.ru/i/NG-nhZZsNEGLXQ Итого нужно будет скачивать данные по отгрузкам, расхождениям при приёмке, продажам, остаткам и т.д. Нужно будет делать скачивание как по конкретному указанному кабинету, так и по списку из 10-20-30 кабинетов с авторизацией и разавторизацией. Т.е. нужно будет сделать расписание и выбор списка того, что скачивается.
Описание: Требуется создать скрипт на Python, который: Спарсит весь текст сайта yti2 (заголовки, контент, мета-теги). Переведёт контент на арабский через OpenAI API. Загрузит переведённые данные обратно на сайт. Требования: Опыт работы с Python (BeautifulSoup, Requests, Selenium/Playwright). Навыки работы с OpenAI API. Опыт загрузки контента через FTP/SFTP или API. Сохранение структуры HTML и мета-тегов. Результат: Рабочий скрипт с инструкцией. Переведённый и загруженный контент. Логирование всех процессов. Указать срок.
Нужна консультация по использованию вебсайта для отправки API запросов.Требования: опыт работы с отправкой HTTP запросов с вебстраниц из JavaScript или server-server коммуникаций с использованием python, nodejs, java, c#, etc.Желательно:Опыт работы в командеТребования:Наличие рабочего микрофона, широкополосного быстрого интернета и Zoom.Продолжительность 30-60мин.
Существует программа Amulet Map Editor https://github.com/Amulet-Team/Amulet-Map-Editor На это странице есть библиотеки, которые она использует и по каждой библиотеке есть документация апи: - Amulet-Core - Amulet-NBT - PyMCTranslate - Minecraft-Model-Reader - Amulet-LevelDB Необходимо написать скрипт на python, который будет в консоли выполнять вот такие действия: 1) Загрузка мира Minecraft (я предоставлю) 2) Импорт .schematic файла в этот мир (я предоставлю для теста) 3) Размещение постройки, которая хранится в этом .schematic файле на свободном поле (должны быть блоки grass_block). 4) Расположить постройку ровно, так чтобы она корректно размещалась по координатам (не залазила под блоки или выше границы grass_block и расположилась на пустом поле, где находятся только блоки травы grass_block) 5) Выделяем эту размещенную постройку и экспортируем в формат .mcstructure для Minecraft Bedrock версии 1.21.50 У меня будет папки schematic и output. В schematic будут лежать много файлов, нужно каждый файл обработать и превратить его в .mcstructure с таким же названием. Скрипт должен быть в виде main.py, запуск из lenv, и укажите все библиотеки, которые вы использовали чтобы я мог их установить через pip. Работа будет считаться выполненной, при условии выполнения всех пунктов и моей проверке импорта полученной постройки .mcstructure в Minecraft Bedrock. Все что я описал умеет делать Amulet Map Editor, но мне нужно обработать много файлов.
Для моего проекта требуется на постоянку программист Часто программирование на python и работа с БД Часто работы по Wildberries и другим + API площадок. Создаем гибридные решения под мои "хотелки"
Расширить функционал существующего парсера hh.ru, добавив возможность парсинга рейтинга компаний. Обновленные данные должны по-прежнему передаваться через Telegram-бота в Google Таблицы, с созданием отдельного листа для рейтингов компаний.Требования к реализации:Добавить в текущую программу на python функцию, которая извлекает рейтинг компаний с hh.ru.Убедиться, что парсер корректно обрабатывает данные о рейтинге, включая случаи, когда информация отсутствует или недоступна.Если рейтинг представлен в формате чисел, сохранять это значение в числовом виде и записать полученные данные в соответствующий столбецЗагрузить исправленную программу на сервер.
Краткое описание скрипта на Python для парсинга данных и рассылки уведомлений: Бот для email-рассылки, состоящий из двух независимых модулей: парсер и рассыльщик. Парсер собирает данные о сертификатах с истекающим сроком действия (2 месяца) и статусом "прекращен". Есть Telegram-бот для управления, блэклист, CSV-экспорт. Важно: парсер должен собирать не менее 500+ адресов/день, письма не дублируются на один адрес, автоматический перезапуск при сбоях. Обмен данными между модулями происходит с использованием Docker Compose. Задачи которые нужно выполнить: 1. Оптимизировать код скрипта, так чтобы диск не переполнялся. Сейчас если скрипт работает непрерывно более недели, то накопитель переполняется, и работа скрипта приостанавливается. Нужно сделать чтобы скрипт работал бесперебойно, исключить переполнение диска. 2. Проверить алгоритм рассылок, на один ящик должно приходить максимум 4 письма, по 1 разу в неделю, на протяжении месяца, после отправки ящик должен добавляться в ЧС на один год, по истечению года из ЧС убираться ящик должен убираться. Рассылка уведомлений должна начинаться за 2 месяца до окончания действия сертификата. 3. Нужно сделать отчет, в которой можно будет выгрузить в бот телеграмма. В отчет должен быть выполнен в виде таблицы, в которой должны присутствовать ящики на которые были отправлены письма, а в соседней количество отправленных писем которые были отправлены за последние 60 дней.
Мы ищем опытного разработчика для создания проекта, который включает веб-приложение и Telegram-бот для цветочного магазина. Основная цель – запустить проект максимально быстро с качественной реализацией всех функций. Что нужно разработать: 1. Web App: - Функционал для клиентов: - Каталог цветов с фото, описанием и ценами. - Корзина для оформления заказов. - Форма оформления заказа с вводом контактной информации. - Система уведомлений о статусе заказа. - Админ-панель: - Управление товарами: добавление, редактирование и удаление. - Управление категориями и подкатегориями. - Просмотр и обработка заказов. 2. Telegram-бот: - Функции для клиентов: - Просмотр каталога. - Добавление товаров в корзину и оформление заказа. - Уведомления о статусе заказа. - Функции для администратора: - Просмотр и управление заказами. - Возможность быстрого ответа клиенту. 3. Интеграция: - База данных (PostgreSQL) для хранения данных о товарах, заказах и пользователях. - Возможность добавления оплаты через YooKassa/Stripe (опционально). Требования к исполнителю: - Опыт разработки Telegram-ботов на Python (aiogram или telebot). - Знание Flask или FastAPI для создания backend. - Умение работать с PostgreSQL. - Навыки работы с HTML, CSS, JavaScript для разработки интерфейсов. - Опыт реализации аналогичных проектов будет преимуществом.
Здравствуйте. В поиске разработчика на проектную работу. Нужно создать телеграмм бота. Тест , после которого происходит анализ и выдача данных (ссылки на товары, ссылка на корзину) Более дельно обсудим в ЛСПросьба оставить контакт в тг и ссылку на портфолио по ботам телеграм !
Работающий парсер в последнее время стал слишком часто выдавать ошибку получения следующей/последней страницы. изначально настроен так чтобы не сохранять промежуточный результат, а только по окончании работы с рубрикой. Нужно исправить слишком частые выдачи ошибки и изменить способ сохранения промежуточных результатов. предоставлю скрипт после первого контакта
Описание проекта:Хочу запустить платформу а-ля Submithub, Groover, но с человеческим лицом. Сервис должен позволять музыкантам:Загружать трек и описывать жанр.Автоматически находить подходящих кураторов (плейлисты, блогеры).Получать обратную связь (рейтинг, короткий отзыв).Отслеживать, кто реально добавил трек в свой плейлист.Что нужно от MVP:Личный кабинет музыканта, где он загружает трек (желательно облако + метаданные).Управление кураторами (регистрация, листинг, поиск по жанрам).Базовая логика отправки трека куратору + фидбэк (можно что-то типа формы с комментарием и рейтингом).Простая аналитика (сколько отправлено заявок, сколько откликов).Возможность оплаты (пока просто интеграция с PayPal/другой популярной системой).Требования к фрилансеру:Умение собрать MVP быстро и без лишнего “воды”. Тексты от нейросетки, если что, не проблема, но код должен работать.Понимание базовых принципов музыкантской боли — а то сделаем очередной тухляк, и все разбегутся.Опыт в веб-разработке (React/Node.js/Python/No-code — неважно, лишь бы выгорело).Нормальные навыки документации и чтобы смог передать проект без путаницы (“ой, я пароль от базы забыл в соседней кафешке”).Сроки и бюджет:Ориентировочно 1–2 месяца на MVP.Бюджет обсуждаем, но по рукам не ударим, если будет видно, что вы умеете делать качественно.Как откликнуться:Пару слов о вашем опыте (портфолио, прошлые проекты).Какие фреймворки/инструменты планируете использовать.Когда можете стартануть.И внезапный вопрос: какую музыку слушаете? Проверим, вдруг вы фанат брутального грайндкора — тогда всё будет эпичнее.Пишите, угостим кошку вас интересным проектом, если подойдёт!
Требуется разработка системы для автоматической генерации и публикации коротких видео (YouTube Shorts) на основе карточек товаров итальянской мебели. Задачи: Сбор данных: Парсинг сайта можно и rss ленту (название, изображение, цена, описание). Экспорт данных в JSON/CSV. Генерация анекдотов: Интеграция с OpenAI API для создания текстов. Создание видео: Генерация вертикального видео (9:16) с текстом и фоном. Добавление музыки, логотипа. Озвучка: Интеграция с Google Text-to-Speech API. Автопубликация: Интеграция с YouTube API для загрузки видео. Настройка публикации по расписанию. Требования: Опыт работы с Python, API YouTube и OpenAI, парсинг данных, ffmpeg. От заказчика: API-ключи, примеры данных, брендовые материалы. Результат: Автоматизированная система по генерации и публикации видео на YouTube. Сроки: 10-14 дней.
На портал https://derzn.ru/drevo/ реализуется новая информационная технология создания и накопления уже не информации, а готовых знаний - коротких (1-2 предложения) текстов, связанных между собой связями различных видов.Этот заказ включает одну из задач технологического процесса подготовки знаний.Постановка задачи: https://github.com/lvb555/derzn/issues/1012Наш проект "Дерево знаний" - интересный, инновационный проект, но это НЕКОММЕРЧЕСКИЙ проект,. Плата небольшая. Но Вы получите опыт решения реальных, непростых задач и хорошие отзывы за хорошо сделанную работу.
Нужно написать скрипт который будет массово минтить NFT картинки в блокчейн TON. Минитим только картинки в конкретную коллекцию. Скрипт создания коллекции писать не нужно. Откликайтесь на задание только если что-то в этом понимаете, а не так что возьметесь, а потом по много раз кривой код сделанный ChatGPT. Желательно реализовать все на чистом Python, но другие языки тоже готов рассмотреть. Вот предположительно инструкция для решения этой задачи целиком https://www.youtube.com/watch?v=SY83tiu-5cQ