条款和条件
查阅 Photomatic AI 的条款和条件,涵盖用户义务、数据隐私、功能、支付和法律条款。
更新日期:2025年5月30日
1. 简介
欢迎使用 Photomatic AI,它是 FlowHunt 平台的一部分。FlowHunt 作为一项服务由 AiMingle 提供(有关公司的更多信息可访问 www.aimingle.cz)。
通过访问或使用 FlowHunt.io 服务,即表示您同意遵守并受本条款约束。
如果您不同意这些条款,请不要使用 FlowHunt.io 服务。
2. 定义
- “用户”:任何使用 Flowhunt.io 服务的个人或实体。
- “服务”:Flowhunt.io,包括 Photomatic AI,以及所有功能和特性、由 OpenAI 语言模型及多个 API 提供的推荐和建议。
- “API”:集成到聊天机器人服务中的应用程序编程接口,以提供附加功能。
3. 使用条款
3.1 资格
使用本服务即表示您声明并保证您已年满18岁或已达到您所在司法管辖区的法定成年年龄。
3.2 许可
我们授予您一项非独占、不可转让、可撤销的许可,允许您按照本条款为个人和商业目的访问和使用本服务。
4. 用户责任
4.1 信息准确性
您同意在使用本服务时提供准确、最新和完整的信息,并在必要时维护和更新您的信息。
4.2 遵守法律
您同意在使用本服务时遵守所有适用的法律法规。
5. 禁止行为
您同意不:
- 将服务用于任何非法目的。
- 上传、发布或传输任何非法、有害或冒犯性的内容。
- 干扰或破坏服务或与服务连接的服务器的运行。
- 试图未经授权访问服务的任何部分、其他账户、计算机系统或网络。
6. 账户与支付条款
6.1 账户安全
您有责任维护您账户的安全,并对在您账户下发生的所有活动负责。
6.2 支付
如果本服务的任何部分需要付费,您同意支付所规定的金额并遵守我们的支付条款。
6.3 徽标使用
注册我们的服务并选择任意套餐,即表示您授予 FlowHunt.io 使用您的徽标、名称和品牌的权利,仅用于市场推广,包括但不限于在我们的网站、宣传材料和演示中展示您对 FlowHunt.io 流程的使用。如您希望退出此条款,可发送书面通知至 support@flowhunt.io。
6.4 退款与取消
除非适用法律另有要求,否则已支付的服务费用不予退还。如您希望取消订阅,您可随时操作;但对于部分使用周期不予退款或抵扣。
7. 隐私政策
我们对您数据的使用受我们的隐私政策约束,隐私政策说明了我们如何收集、使用和保护您的信息。
8. AI 模型与数据使用
FlowHunt 集成了多种 AI 模型和 API,以提供增强功能。这些模型的使用受其各自条款和条件约束,以下为简要说明。
AI 模型通过多种数据源进行训练,包括授权数据、人类训练师创建的数据和公开可获得的数据。这些模型根据用户输入生成文本、图片或其他类型的媒体内容。
FlowHunt 不保证这些模型所生成输出的准确性、可靠性或完整性。
FlowHunt 不保证输出内容没有错误、遗漏或不准确。
即使由 AI 模型生成,FlowHunt 也不授予对受许可内容的权利。
输出内容是基于训练数据中学习到的模式生成的,并不总是反映事实信息或最新事件。
FlowHunt.io 使用多种 AI 模型,包括 OpenAI、Amazon Bedrock、Anthropic、Google Vertex AI、Microsoft Azure AI、Grok (xAI) 和 Groq。每种模型在数据安全、模型安全、模型训练、数据托管与本地化以及数据隐私方面都有各自的实践。
以下是每种模型的相关实践摘要。
8.1 OpenAI
8.1.1 数据安全
OpenAI 的数据安全实践详见此处。
8.1.2 模型安全
FlowHunt.io 使用经过预训练的 OpenAI 模型,服务数据仅用于向订阅者提供和保障服务。输出交付后,服务数据将被删除。
8.1.3 模型训练
OpenAI 绝不会将服务数据用于模型训练或任何形式的服务改进。
8.1.4 数据托管与本地化
OpenAI 目前在美国处理服务数据,但不会存储或托管服务数据,因为输出提供后即会被立即删除。
8.1.5 数据隐私
FlowHunt.io 采用 OpenAI 的“零数据保留”政策,输出交付后 OpenAI 不会存储或托管任何服务数据。
因此,使用 OpenAI 不会影响订阅者在使用 FlowHunt 时遵守各种隐私法律(包括 GDPR 和 CCPA)的能力。
8.2 Amazon Bedrock
8.2.1 数据安全
Amazon Bedrock 采用强大的安全措施,包括传输和静态数据加密,并利用 AWS 的安全基础设施。实施访问控制和网络安全以保护服务处理的数据。
8.2.2 模型安全
Amazon Bedrock 上的模型通过 AWS 的安全协议防止未经授权的访问和篡改。基础模型由 AWS 或第三方提供商管理,并采取各自的安全措施。
8.2.3 模型训练
默认情况下,Amazon Bedrock 基础模型处理的数据不会用于训练原始基础模型或分发给第三方模型提供商。用户可选择用自己的数据微调模型,该数据由其 AWS 账户管理并受其控制。
8.2.4 数据托管与本地化
Amazon Bedrock 处理的数据通常托管在用户所选的 AWS 区域。具体的数据驻留和处理地点取决于所选模型和 AWS 服务配置。
8.2.5 数据隐私
Amazon Bedrock 旨在帮助用户遵守适用的隐私法律。服务处理的用户数据根据 AWS 隐私声明和数据处理补充协议进行处理。用户可控制其数据,并可管理数据的使用和保留。
8.3 Anthropic
8.3.1 数据安全
Anthropic 实施行业标准的安全措施以保护数据,包括加密和访问控制。我们的系统旨在保障用户输入和模型输出的机密性和完整性。
8.3.2 模型安全
Anthropic 的模型开发和托管注重安全,采取措施防止未经授权的访问或滥用。我们持续努力确保模型安全的稳健性。
8.3.3 模型训练
默认情况下,提交给 Anthropic 通用 API 服务的数据不会用于模型训练。对于特定企业产品或功能,数据用于训练将会在相关服务条款中明确说明。
8.3.4 数据托管与本地化
Anthropic 服务处理的数据可能托管在多个安全数据中心。具体的数据存储位置请查阅我们的服务文档或联系客服获取信息。
8.3.5 数据隐私
Anthropic 致力于数据隐私,并根据我们的隐私政策处理数据。我们旨在根据适用的隐私法规提供对个人信息的透明度和控制权。
8.4 Google Vertex AI、Gemini 和 PaLM
8.4.1 数据安全
Google Cloud 的 Vertex AI(包括 Gemini 和 PaLM 等模型)受益于 Google 全面的安全基础设施,提供数据加密、网络安全和访问控制,以保护客户数据。
8.4.2 模型安全
Google 采用严格的安全措施保护其 AI 模型免受未经授权的访问和恶意行为。模型完整性和可用性是关键优先事项。
8.4.3 模型训练
除非客户明确同意(如用于自定义模型训练),Google Vertex AI 服务处理的客户数据不会用于 Google 通用基础模型的训练。Google 会对用于模型改进的数据使用做出明确说明。
8.4.4 数据托管与本地化
通过 Google Vertex AI 处理的数据可配置为特定区域,允许客户根据需求和 Google Cloud 区域服务可用性控制数据驻留。
8.4.5 数据隐私
Google Cloud 的 AI 服务旨在遵守 GDPR 和 CCPA 等隐私法律。Google 的数据处理与安全条款明确了其在数据隐私和保护方面的承诺。
8.5 Microsoft Azure AI
8.5.1 数据安全
Microsoft Azure AI 服务基于 Azure 安全云基础设施构建,具备高级安全特性,如数据加密、威胁检测和身份管理,以保护客户数据。
8.5.2 模型安全
Microsoft 采用强有力的安全实践保护其 AI 模型(包括通过 Azure AI 提供的模型),确保其免受未经授权的访问和滥用。
8.5.3 模型训练
客户发送到 Azure AI 服务的数据默认不会用于训练 Microsoft 公开可用的基础模型。客户对其数据及其用于任何自定义模型训练或微调拥有控制权。
8.5.4 数据托管与本地化
Azure AI 服务允许客户指定其数据处理和存储的地理区域,支持数据驻留和合规要求。
8.5.5 数据隐私
Microsoft 致力于数据隐私,并提供全面文档,包括隐私声明和数据保护补充协议,详细说明 Azure AI 服务如何根据全球隐私法规处理数据。
8.6 Grok (xAI)
8.6.1 数据安全
xAI 的 Grok 注重安全开发。预期措施包括数据加密和安全基础设施,以保护用户交互和数据。有关具体承诺,请参阅官方 xAI 文档。
8.6.2 模型安全
Grok 模型的安全旨在防止未经授权的访问并确保其完整性。具体安全架构细节将通过 xAI 官方渠道发布。
8.6.3 模型训练
关于用户数据是否用于 Grok 的模型训练的信息将在 xAI 的服务条款和隐私政策中说明。用户应查阅这些文件以明确数据用于模型改进的情况。
8.6.4 数据托管与本地化
Grok 处理的数据托管和处理地点的详情将由 xAI 说明。请参阅 xAI 官方文档以了解数据驻留具体信息。
8.6.5 数据隐私
xAI 关于 Grok 的数据隐私做法将在其隐私政策中详细说明,说明如何按照适用的隐私法律收集、使用和保护用户数据。
8.7 Groq
8.7.1 数据安全
Groq 的 LPU™ 推理引擎及云服务在设计上注重安全,重点保护通过其硬件和平台处理的数据,包括传输和静态数据的安全措施。
8.7.2 模型安全
当 Groq 平台托管 AI 模型时,确保模型及推理过程免受未经授权的访问和干扰。
8.7.3 模型训练
Groq 主要提供推理硬件及相关云服务。除非明确作为单独协议或服务内容,发送到 Groq 平台进行推理的数据通常不会用于模型训练。
8.7.4 数据托管与本地化
Groq 云服务处理的数据可能托管于特定数据中心。客户应查阅 Groq 的服务协议以了解数据托管位置和驻留选项的详细信息。
8.7.5 数据隐私
Groq 致力于保护数据隐私。其隐私政策和服务协议将详细说明如何处理用户数据及推理数据,以符合法律法规。
9. 用户生成内容
9.1 所有权与责任
您保留在通过本服务创建、上传或存储内容(“用户生成内容”)中所享有的任何知识产权所有权。
您对您的用户生成内容以及对 AI 生成内容的使用及其发布或发表的后果承担全部责任。
AI 生成的图像或内容可用于商业用途,但您必须确保这些内容不侵犯任何第三方权利,包括版权、商标或隐私权。
FlowHunt.io 不对通过本服务生成的 AI 图像主张所有权。
您应避免生成淫秽、令人反感或侵犯任何第三方权利(包括知识产权、隐私权或肖像权)的内容。
您还同意不提交包含病毒、蠕虫或其他有害代码的用户生成内容。
9.2 FlowHunt.io 的授权
通过向本服务提供用户生成内容,您授予 FlowHunt.io 全球范围内、非独占、免版税、可再授权和可转让的许可,以在与本服务及 FlowHunt.io(以及其继承人和关联公司)的业务相关的情况下,使用、复制、分发、制作衍生作品、展示和表演用户生成内容,包括用于推广和重新分发本服务的部分或全部内容。
9.3 禁止内容
您同意不提交任何非法、诽谤、中伤的用户生成内容