Общи условия

Прегледайте Общите условия на Photomatic AI, обхващащи задълженията на потребителите, поверителността на данните, функциите, плащанията и правните условия.

Актуализирано: 30.5.2025

1. Въведение

Добре дошли в Photomatic AI, част от платформата FlowHunt. FlowHunt като услуга се предоставя от AiMingle (повече информация за компанията на www.aimingle.cz).
С достъпа или използването на услугата FlowHunt.io, вие се съгласявате да спазвате и да бъдете обвързани с тези Общи условия.
Ако не сте съгласни с тези условия, моля, не използвайте услугата FlowHunt.io.

2. Определения

  • „Потребител“: Всяко физическо или юридическо лице, което използва услугата Flowhunt.io.
  • „Услуга“: Flowhunt.io, включително Photomatic AI, и всички функции и функционалности, препоръки и предложения, предоставени от езиковите модели на OpenAI и различни API.
  • „API“: Програмни интерфейси за приложения, интегрирани в Чатбот услугата за предоставяне на допълнителни функционалности.

3. Условия за ползване

3.1 Право на ползване

С използването на Услугата декларирате и гарантирате, че сте навършили поне 18 години или сте навършили пълнолетие според законите във вашата юрисдикция.

3.2 Лиценз

Ние ви предоставяме неизключителен, непрехвърляем и отменяем лиценз за достъп и използване на Услугата за лични и бизнес цели в съответствие с тези Общи условия.

4. Отговорности на потребителя

4.1 Точна информация

Вие се съгласявате да предоставяте точна, актуална и пълна информация при използване на Услугата и да поддържате и актуализирате информацията си при необходимост.

4.2 Спазване на закона

Вие се съгласявате да спазвате всички приложими закони и нормативни актове при използване на Услугата.

5. Забранено поведение

Вие се съгласявате да не:

  • Използвате Услугата за незаконни цели.
  • Качвате, публикувате или предавате съдържание, което е незаконно, вредно или обидно.
  • Пречите или нарушавате работата на Услугата или сървърите, свързани с Услугата.
  • Опитвате се да получите неоторизиран достъп до която и да е част от Услугата, други акаунти, компютърни системи или мрежи.

6. Акаунт и условия за плащане

6.1 Сигурност на акаунта

Вие носите отговорност за поддържането на сигурността на своя акаунт и за всички действия, извършени чрез него.

6.2 Плащания

Ако някоя част от Услугата се предоставя срещу заплащане, вие се съгласявате да заплатите посочените суми и да спазвате нашите условия за плащане.

6.3 Използване на лого

С регистрацията си за нашата Услуга и избора на който и да е план, предоставяте на FlowHunt.io правото да използва вашето лого, име и марка единствено за маркетингови цели, включително, но не само, за показване на вашето използване на FlowHunt.io flows на нашия уебсайт, промоционални материали и презентации. Ако желаете да се откажете от тази разпоредба, можете да ни уведомите писмено на support@flowhunt.io.

6.4 Възстановяване на суми и анулации

Плащанията за Услугата не подлежат на възстановяване, освен ако не се изисква друго съгласно приложимото законодателство. Ако желаете да прекратите абонамента си, можете да го направите по всяко време; обаче не се предоставят възстановявания или кредити за частични периоди на използване.

7. Политика за поверителност

Използването на вашите данни е предмет на нашата Политика за поверителност, която описва как събираме, използваме и защитаваме вашата информация.

8. AI модели и използване на данни

FlowHunt интегрира различни AI модели и API за предоставяне на разширени функционалности. Използването на тези модели е обект на съответните им условия, които са обобщени по-долу. AI моделите са обучени на смес от източници на данни, включително лицензирани данни, данни, създадени от човешки треньори, и публично достъпни данни. Тези модели са предназначени да генерират текст, изображения или други видове медия въз основа на потребителския вход. FlowHunt не гарантира точността, надеждността или пълнотата на резултатите, генерирани от тези модели. FlowHunt не гарантира, че резултатите ще бъдат без грешки, пропуски или неточности. FlowHunt не предоставя права върху лицензираното съдържание, дори ако то е генерирано от AI модели. Резултатите се генерират въз основа на модели, научени от обучителните данни, и може да не отразяват винаги фактическа информация или текущи събития. FlowHunt.io използва различни AI модели, включително OpenAI, Amazon Bedrock, Anthropic, Google Vertex AI, Microsoft Azure AI, Grok (xAI) и Groq. Всеки модел има свои собствени практики по отношение на сигурността на данните, сигурността на моделите, обучението на модели, хостинг и локалност на данните, както и поверителността на данните. По-долу е представено обобщение на тези практики за всеки модел.

8.1 OpenAI

8.1.1 Сигурност на данните

Практиките на OpenAI за сигурност на данните са достъпни тук.

8.1.2 Сигурност на модела

FlowHunt.io използва предварително обучени модели на OpenAI, а Данните за услугата никога няма да бъдат използвани от OpenAI за други цели, освен за предоставяне и защита на услугата за Абонатите. След предоставяне на резултата, Данните за услугата се изтриват.

8.1.3 Обучение на моделите

OpenAI никога няма да използва Данните за услугата за обучение на модели или друга форма на подобрение на услугата.

8.1.4 Хостинг и локалност на данните

В момента OpenAI обработва Данните за услугата в Съединените щати. Въпреки това, OpenAI не съхранява или хоства Данните за услугата, тъй като те се изтриват незабавно след предоставяне на резултата.

8.1.5 Поверителност на данните

FlowHunt.io използва политиката на OpenAI за “нулево съхранение на данни”, така че никакви Данни за услугата не се съхраняват или хостват от OpenAI след предоставяне на резултата. В резултат на това използването на OpenAI не засяга способността на Абонатите да се съобразят с различни закони за поверителност (включително GDPR и CCPA), когато използват FlowHunt.

8.2 Amazon Bedrock

8.2.1 Сигурност на данните

Amazon Bedrock използва надеждни мерки за сигурност, включително криптиране на данни по време на пренос и при съхранение, и използва защитената инфраструктура на AWS. Прилагат се контрол на достъпа и мрежова сигурност за защита на обработваните от услугата данни.

8.2.2 Сигурност на модела

Моделите в Amazon Bedrock са защитени срещу неоторизиран достъп и подправяне чрез протоколите за сигурност на AWS. Основните модели се управляват от AWS или трети страни съгласно съответните мерки за сигурност.

8.2.3 Обучение на моделите

По подразбиране данните, обработвани от основните модели на Amazon Bedrock, не се използват за обучение на първоначалните базови модели или не се предоставят на трети страни доставчици на модели. Потребителите могат да имат опции за фина настройка на модели със свои собствени данни, които се управляват в рамките на техния AWS акаунт и подлежат на техен контрол.

8.2.4 Хостинг и локалност на данните

Данните, обработени от Amazon Bedrock, обикновено се хостват в избрания от потребителя AWS регион. Конкретното местоположение на съхранение и обработка на данните зависи от избраните модели и конфигурации на AWS услугите.

8.2.5 Поверителност на данните

Amazon Bedrock е проектиран да помага на потребителите да спазват приложимите закони за поверителност. Данните на потребителите, обработвани от услугата, се управляват в съответствие с Уведомлението за поверителност на AWS и Допълнението за обработка на данни. Потребителите контролират своите данни и могат да управляват тяхното използване и съхранение.

8.3 Anthropic

8.3.1 Сигурност на данните

Anthropic прилага индустриални стандарти за сигурност на данните, включително криптиране и контрол на достъпа. Нашите системи са проектирани да защитават поверителността и целостта на входните данни на потребителите и изходите на модела.

8.3.2 Сигурност на модела

Моделите на Anthropic се разработват и хостват със специално внимание към сигурността, като се използват мерки за предотвратяване на неоторизиран достъп или злоупотреба. Ние непрекъснато работим за повишаване на устойчивостта на сигурността на моделите ни.

8.3.3 Обучение на моделите

Данните, изпратени към общодостъпните API услуги на Anthropic, по подразбиране не се използват за обучение на нашите модели. За конкретни бизнес услуги или функционалности, използването на данни за обучение ще бъде изрично посочено в съответните условия на услугата.

8.3.4 Хостинг и локалност на данните

Данните, обработвани от услугите на Anthropic, могат да се хостват в различни защитени центрове за данни. Информация относно конкретните местоположения на съхранение на данни може да бъде намерена в документацията на услугата или чрез контакт с поддръжката.

8.3.5 Поверителност на данните

Anthropic се ангажира с поверителността на данните и обработва данните в съответствие с нашата Политика за поверителност. Ние се стремим да осигурим прозрачност и контрол върху личната информация според изискванията на приложимите нормативни актове за поверителност.

8.4 Google Vertex AI, Gemini и PaLM

8.4.1 Сигурност на данните

Vertex AI на Google Cloud, включително модели като Gemini и PaLM, се възползва от цялостната инфраструктура за сигурност на Google, с криптиране на данни, мрежова сигурност и контрол на достъпа за защита на данните на клиентите.

8.4.2 Сигурност на модела

Google прилага строги мерки за сигурност за защита на своите AI модели от неоторизиран достъп и злонамерени дейности. Цялостта и наличността на моделите са ключови приоритети.

8.4.3 Обучение на моделите

Потребителските данни, обработвани от услугите на Vertex AI на Google, не се използват за обучение на общите основни модели на Google, освен ако това не е изрично уговорено от клиента (напр. за персонализирано обучение на модел). Google предоставя ясна информация относно използването на данни за подобряване на моделите.

8.4.4 Хостинг и локалност на данните

Данните, обработвани чрез Google Vertex AI, могат да бъдат конфигурирани за конкретни региони, което позволява на клиентите да контролират резидентността на данните според своите изисквания и наличността на регионалните услуги на Google Cloud.

8.4.5 Поверителност на данните

AI услугите на Google Cloud са проектирани да спазват закони за поверителност като GDPR и CCPA. Условията на Google за обработка и сигурност на данните определят ангажиментите й към поверителността и защитата на данните.

8.5 Microsoft Azure AI

8.5.1 Сигурност на данните

AI услугите на Microsoft Azure са изградени върху защитената облачна инфраструктура на Azure, която включва разширени функции за сигурност като криптиране на данни, откриване на заплахи и управление на идентичността за защита на клиентските данни.

8.5.2 Сигурност на модела

Microsoft прилага надеждни практики за сигурност за защита на своите AI модели, включително тези, достъпни чрез Azure AI, като гарантира, че те са защитени от неоторизиран достъп и злоупотреба.

8.5.3 Обучение на моделите

Потребителските данни, изпратени до услугите на Azure AI, по подразбиране не се използват за обучение на публично достъпните основни модели на Microsoft. Клиентите запазват контрол върху своите данни и тяхното използване за всяко персонализирано обучение на модел или фина настройка.

8.5.4 Хостинг и локалност на данните

AI услугите на Azure позволяват на клиентите да посочват географските региони, където техните данни се обработват и съхраняват, в подкрепа на изискванията за резидентност на данните и съответствие.

8.5.5 Поверителност на данните

Microsoft е ангажирана с поверителността на данните и предоставя изчерпателна документация, включително Декларация за поверителност и Допълнение за защита на данните, които описват как услугите на Azure AI обработват данни в съответствие с глобалните разпоредби за поверителност.

8.6 Grok (xAI)

8.6.1 Сигурност на данните

Grok на xAI е разработен с фокус върху сигурността. Очаква се мерките да включват криптиране на данни и защитена инфраструктура за защита на взаимодействията и данните на потребителите. Потребителите трябва да се обърнат към официалната документация на xAI за конкретни ангажименти.

8.6.2 Сигурност на модела

Сигурността на модела Grok цели да предотврати неоторизиран достъп и да гарантира неговата цялост. Подробности за архитектурата на сигурността ще бъдат публикувани чрез официалните канали на xAI.

8.6.3 Обучение на моделите

Информация за това дали потребителските данни се използват за обучение на Grok ще бъде предоставена в условията за ползване и политиката за поверителност на xAI. Потребителите трябва да се консултират с тези документи за яснота относно използването на данни за подобряване на модела.

8.6.4 Хостинг и локалност на данните

Детайли за мястото, където данните, обработвани от Grok, се хостват и обработват, ще бъдат посочени от xAI. Потребителите трябва да се обърнат към официалната документация на xAI за конкретика относно резидентността на данните.

8.6.5 Поверителност на данните

Подходът на xAI към поверителността на данните за Grok ще бъде описан в политиката за поверителност, в която се посочва как се събират, използват и защитават потребителските данни според приложимите закони за поверителност.

8.7 Groq

8.7.1 Сигурност на данните

Groq LPU™ Inference Engine и облачните услуги са проектирани с мисъл за сигурността, като се фокусират върху защитата на данните, обработвани чрез тяхното оборудване и платформа. Това включва мерки за защита на данните по време на пренос и при съхранение.

8.7.2 Сигурност на модела

Платформата на Groq, когато хоства AI модели, гарантира, че моделите и процесът на инференция са защитени срещу неоторизиран достъп и намеса.

8.7.3 Обучение на моделите

Groq основно предоставя хардуер за инференция и свързани облачни услуги. Данните, изпратени за инференция на платформата на Groq, обикновено не се използват за обучение на модели, освен ако това не е изрично част от отделно споразумение или услуга.

8.7.4 Хостинг и локалност на данните

Данните, обработени от облачните услуги на Groq, могат да се хостват в определени центрове за данни. Клиентите трябва да се консултират със споразуменията за услуги на Groq за подробности относно локациите на хостинг и опциите за резидентност на данните.

8.7.5 Поверителност на данните

Groq се ангажира със защитата на поверителността на данните. Политиката за поверителност и споразуменията за услуги ще описват как се обработват потребителските данни и данните за инференция в съответствие с приложимите разпоредби за поверителност.

9. Съдържание, генерирано от потребителите

9.1 Собственост и отговорност

Вие запазвате собствеността върху всички права на интелектуална собственост, които притежавате върху съдържанието, което създавате, качвате или съхранявате чрез Услугата (“Съдържание, генерирано от потребителя”).
Вие носите пълна отговорност за вашето Съдържание, генерирано от потребителя, както и за използването на AI-генерирано съдържание и последиците от публикуването или разпространението му. AI-генерираните изображения или съдържание могат да се използват за търговски цели, но трябва да се уверите, че изображенията не нарушават права на трети страни, включително авторски права, търговски марки или права на поверителност.
FlowHunt.io не претендира за собственост върху AI-генерираните изображения, създадени чрез Услугата. Трябва да избягвате генериране на неприлично, спорно съдържание или такова, което нарушава правата на трети страни, включително права на интелектуална собственост, права на поверителност или публичност. Също така се съгласявате да не предоставяте Съдържание, генерирано от потребителя, което съдържа вируси, червеи или друг вреден код.

9.2 Лиценз към FlowHunt.io

С предоставянето на Съдържание, генерирано от потребителя, към Услугата, предоставяте на FlowHunt.io световен, неизключителен, безвъзмезден, с възможност за сублицензиране и прехвърляне лиценз за използване, възпроизвеждане, разпространение, създаване на производни произведения, показване и публично изпълнение на Съдържанието, генерирано от потребителя, във връзка с Услугата и бизнеса на FlowHunt.io (и неговите правоприемници и филиали), включително за промотиране и разпространение на част или цялата Услуга.

9.3 Забранено съдържание

Вие се съгласявате да не предоставяте Съдържание, генерирано от потребителя, което е незаконно, клеветническо, обидно

Средната фотосесия струва $200. Ние започваме от $20

Генерирайте всяка снимка, която ви е необходима, без да наемате модели или да плащате за скъпи студиа.