Закрыто

AiHub Pro – Облачный агрегатор ИИ для творчества и бизнеса (740+ нейросетей в 1)

Тема в разделе "Бизнес и свое дело", создана пользователем soctrap, 1 апр 2025.

Цена: 175950р.
Взнос: 8500р.
104%

Основной список: 22 участников

Резервный список: 1 участников

Статус обсуждения:
Комментирование ограничено.
  1. 29 июн 2025
    #41
    Sanches007
    Sanches007 ЧКЧлен клуба
    Обычно,какое впишите. эти поля пустые, по крайне мере так было в прошлых складчинах и думаю не изменилось.
     
    2 пользователям это понравилось.
  2. 1 июл 2025
    #42
    soctrap
    soctrap ПартнерПартнер (А)
    По большому счету не имеет значения версия, будут использоваться базовые функции панели который есть везде.
    Скрины будут на версии 6.118+
    Основная нагрузка ложится на сервера провайдера, на рабочий VDS нагрузка небольшая.
    Думаю, что несколько десятков одновременных запросов такой VDS будет выдерживать.
    В текущей реализации да.
    Backend в принципе из себя представляет API и технически достаточно подставить токен авторизации для работы с ним.
    Модуля управления токенами в интерфейсе пользователя нет, но это можно будет реализовать без проблем.
    Да, подскажу, если будет необходимо.
    Да.
     
    1 человеку нравится это.
  3. 1 июл 2025
    #43
    soctrap
    soctrap ПартнерПартнер (А)
    Название прописывается в файле локализации, можете использовать любое на свое усмотрение, ограничений нет.
     
    1 человеку нравится это.
  4. 2 июл 2025
    #44
    Sanya2014
    Sanya2014 ЧКЧлен клуба
    Уже спрашивал (вроде), но спрошу еще раз... а получиться оплатить через многочисленные сервисы, которые помогают оплачивать бурж сервисы различные, или точно нужна только собственная Visa/Mastercard? Спасибо!
     
  5. 3 июл 2025
    #45
    soctrap
    soctrap ПартнерПартнер (А)
    Чуть выше рассказал принцип оплаты:
    Можно оплачивать через сервисы которые выпускают предоплаченные карты.
    Я лично оформил себе карту ByBit, затраты буквально 100 руб, карта на 3 года.
    Никаких проблем с пополнением и оплатой, есть кэшбэк и автонакопления на остаток.

    Вообще сейчас оформить карту не проблема, на том же авито множество предложений.
     
  6. 3 июл 2025
    #46
    analytic
    analytic ОргОрганизатор (А)
    Я бы не был так уверен. что конечного потребителя устроит цена за генерацию картинки/5 сек видео и т.п. при многообразие сервисов с доступной абонентской платой за месяц.
    Время покажет. Продукт интересный не спорю.
     
  7. 3 июл 2025
    #47
    BrightEyes
    BrightEyes ДолжникДолжник
    @soctrap, судя по описанию функционала и ценовой политике, у меня есть понимание о том, какой провайдер используется. В связи с этим возникает важный вопрос по рискам:

    Что происходит с бизнесом, если основной провайдер:
    • Кардинально поднимет цены
    • Просто станет недоступен по любым причинам?
    Насколько критична привязка к одному поставщику? Можно ли относительно безболезненно переключиться на альтернативных провайдеров, или вся архитектура AiHub PRO жестко завязана на конкретный API?
     
    1 человеку нравится это.
  8. 3 июл 2025
    #48
    soctrap
    soctrap ПартнерПартнер (А)
    Да, можно будет в случае каких-либо форс мажоров в будущем перейти на альтернативные варианты.
    В одном из ближайших обновлений будет модуль который позволяет вручную подключать любые API к системе.
     
    2 пользователям это понравилось.
  9. 7 июл 2025
    #49
    soctrap
    soctrap ПартнерПартнер (А)
    Коллеги, выдача материала будет завтра.
    Если кто-то еще не выполнил условия получения бонуса, поторопитесь, времени осталось немного.
     
  10. 7 июл 2025
    #50
    faster
    faster ЧКЧлен клуба
    1 человеку нравится это.
  11. 8 июл 2025
    #51
    Karl M
    Karl M ЧКЧлен клуба
    Прочитал описание и комменты. Вопросы остались.
    Автор написал, что будет возможность подключится к Claude. И далее ещё:
    А можно ли будет подключить по API - Chat GPT и Gemini ?
    Т.е. думаю для себя и близких реализовать возможность купить один платный GPT и близкому кругу людей раздать доступ, как пользователям в AiHub PRO. Такое возможно сделать?

    Сколько максимально пользователей-клиентов можно подключить к AiHub PRO ?
    Имею ввиду, какую нагрузку выдержит система?
    Т.е. если заняться продажами доступов, то есть ли ограничения на количество пользователей-клиентов?
     
    1 человеку нравится это.
  12. 8 июл 2025
    #52
    soctrap
    soctrap ПартнерПартнер (А)
    Claude уже есть среди готовых к подключению моделей, включая 3.5, 3.7, 4 версии.
    ChatGPT (включая Dall-e) так же есть среди готовых к подключению моделей.
    Gemini готовой нет, но через модуль кастомных моделей можно будет подключить.
    AiHub PRO для этой задачи и создавался. Единственное нужно учитывать, что взаимодействие с моделями происходит в режиме "вопрос-ответ", без поддержки контекста (для коробочных версий LLM). Если такого формата не достаточно, тогда нужны будет через кастомные модели подключать.
    Без ограничений.
    Все зависит от сервера на котором будет стоять AiHub и количества одновременных запросов.
    У AiHub ограничений нет. У провайдера 600 запросов в минуту по умолчанию, если этого недостаточно, то можно сделать запрос на увеличение через поддержку.
     
    1 человеку нравится это.
  13. 8 июл 2025
    #53
    soctrap
    soctrap ПартнерПартнер (А)
    Вообще, для такой узкой задачи нет смысла брать AiHub, он все же агрегатор, где практически 1000 моделей.
    Можете взять opensource тг-бота для ChatGPT, он Ваши потребности закроет:
    Для семейного использования и для маленьких команд как раз подойдет, лично использовал.
     
    1 человеку нравится это.
  14. 8 июл 2025
    #54
    aidarjan
    aidarjan ЧКЧлен клуба
    Позвольте уточнить, правильно ли я понимаю, что такое взаимодействие с моделями означает, что у них нет памяти, т.е. 1 вопрос = 1 ответ и всё? Полноценный диалог не выстроишь...
    Поможете настроить контекст для популярных моделей Claude, ChatGPT, DeepSeek и т.д. через кастомные модели?
     
  15. 8 июл 2025
    #55
    soctrap
    soctrap ПартнерПартнер (А)
    Да, все верно, контекст для LLM не поддерживается, но это небольшая часть всех моделей.
    Для этих целей больше подходит формат чата. Если функционал будет востребованный, будет реализован.
    Обсудим этот вопрос в ветке поддержки.
     
    3 пользователям это понравилось.
  16. 9 июл 2025
    #56
    soctrap
    soctrap ПартнерПартнер (А)
    Материал в библиотеке.
     
Статус обсуждения:
Комментирование ограничено.