diff --git a/src/content/docs/en/pages/agreements/tos/29-august-2025/terms-of-service-29-august-2025.mdx b/src/content/docs/en/pages/agreements/tos/29-august-2025/terms-of-service-29-august-2025.mdx index 32aee5715d..e40a04b213 100644 --- a/src/content/docs/en/pages/agreements/tos/29-august-2025/terms-of-service-29-august-2025.mdx +++ b/src/content/docs/en/pages/agreements/tos/29-august-2025/terms-of-service-29-august-2025.mdx @@ -14,7 +14,7 @@ All Azion products and services are offered as Edge Services and available throu ## 1\. Products and Services -**AI Inference:** designed to run artificial intelligence (AI) models on Azion’s globally distributed infrastructure in response to a request, without requiring the customer to provision or manage the infrastructure for execution. For specific models, as detailed in the documentation available at https://www.azion.com/en/documentation/products/ai/edge-ai/models/, it includes access to: (1) OpenAI-compatible API; (2) support for LoRA (Low-Rank Adaptation) via add-on; and (3) model invocation through Edge Functions. AZION MAY TERMINATE, WITHOUT PRIOR NOTICE, THE EXECUTION OF MODELS THAT ARE: (A) CONSUMING MORE THAN THE MAXIMUM DEFINED MEMORY; OR (B) RUNNING LONGER THAN THE MAXIMUM ALLOWED TIME. AZION MAY DEPROVISION MODELS THAT HAVE BEEN CREATED BUT NOT EXECUTED FOR MORE THAN THREE (3) DAYS. THE MODELS AVAILABLE IN AI INFERENCE MAY BE SUBJECT TO ADDITIONAL THIRD-PARTY LICENSE TERMS AND RESTRICTIONS, AND THE CUSTOMER IS RESPONSIBLE FOR THEIR USE, INCLUDING: (A) OBTAINING OR COMPLYING WITH ANY LICENSE FOR THIRD-PARTY MODELS; (B) ENSURING THE SECURITY OF THE MODEL IN USE; AND (C) THE OUTPUT GENERATED BY THE MODEL IN USE. OUTPUT GENERATED BY MODELS IN AI INFERENCE IS NOT VERIFIED BY AZION FOR ACCURACY AND DOES NOT REPRESENT AZION’S VIEWS. Except as otherwise provided in the Customer Agreement or any documents attached thereto, AI Inference will be billed based on consumption of: (a) Compute Time and (b) Requests. +**AI Inference:** designed to run artificial intelligence (AI) models on Azion’s globally distributed infrastructure in response to a request, without requiring the customer to provision or manage the infrastructure for execution. For specific models, as detailed in the documentation available at https://www.azion.com/en/documentation/products/ai/ai-inference/models/, it includes access to: (1) OpenAI-compatible API; (2) support for LoRA (Low-Rank Adaptation) via add-on; and (3) model invocation through Edge Functions. AZION MAY TERMINATE, WITHOUT PRIOR NOTICE, THE EXECUTION OF MODELS THAT ARE: (A) CONSUMING MORE THAN THE MAXIMUM DEFINED MEMORY; OR (B) RUNNING LONGER THAN THE MAXIMUM ALLOWED TIME. AZION MAY DEPROVISION MODELS THAT HAVE BEEN CREATED BUT NOT EXECUTED FOR MORE THAN THREE (3) DAYS. THE MODELS AVAILABLE IN AI INFERENCE MAY BE SUBJECT TO ADDITIONAL THIRD-PARTY LICENSE TERMS AND RESTRICTIONS, AND THE CUSTOMER IS RESPONSIBLE FOR THEIR USE, INCLUDING: (A) OBTAINING OR COMPLYING WITH ANY LICENSE FOR THIRD-PARTY MODELS; (B) ENSURING THE SECURITY OF THE MODEL IN USE; AND (C) THE OUTPUT GENERATED BY THE MODEL IN USE. OUTPUT GENERATED BY MODELS IN AI INFERENCE IS NOT VERIFIED BY AZION FOR ACCURACY AND DOES NOT REPRESENT AZION’S VIEWS. Except as otherwise provided in the Customer Agreement or any documents attached thereto, AI Inference will be billed based on consumption of: (a) Compute Time and (b) Requests. **Application Accelerator:** an Edge Application module designed to accelerate web applications and APIs. It includes access to protocol optimization features, advanced caching rules (Advanced Cache Key) which allows granular caching with minimum TTL of 0 seconds, segmentation and caching policies based on criteria such as name/value of Cookies and Query Strings, in addition to features such as Rules Engine, Bypass Cache, KeepAlive, Forward Cookies, POST Cache, among others. HTTP GET, HEAD, POST, PUT, PATCH, DELETE and OPTIONS methods available. Except as otherwise provided for in the Customer Agreement or any other documents attached thereto, Application Acelerator will be billed considering the Data Transferred according to the volumes consumed. diff --git a/src/content/docs/en/pages/agreements/tos/terms-of-service.mdx b/src/content/docs/en/pages/agreements/tos/terms-of-service.mdx index be522c0c1a..05bfea0b89 100644 --- a/src/content/docs/en/pages/agreements/tos/terms-of-service.mdx +++ b/src/content/docs/en/pages/agreements/tos/terms-of-service.mdx @@ -14,7 +14,7 @@ All Azion products and services are offered as Edge Services and available throu ## 1\. Products and Services -**AI Inference:** designed to run artificial intelligence (AI) models on Azion’s globally distributed infrastructure in response to a request, without requiring the customer to provision or manage the infrastructure for execution. For specific models, as detailed in the documentation available at https://www.azion.com/en/documentation/products/ai/edge-ai/models/, it includes access to: (1) OpenAI-compatible API; (2) support for LoRA (Low-Rank Adaptation) via add-on; and (3) model invocation through Edge Functions. AZION MAY TERMINATE, WITHOUT PRIOR NOTICE, THE EXECUTION OF MODELS THAT ARE: (A) CONSUMING MORE THAN THE MAXIMUM DEFINED MEMORY; OR (B) RUNNING LONGER THAN THE MAXIMUM ALLOWED TIME. AZION MAY DEPROVISION MODELS THAT HAVE BEEN CREATED BUT NOT EXECUTED FOR MORE THAN THREE (3) DAYS. THE MODELS AVAILABLE IN AI INFERENCE MAY BE SUBJECT TO ADDITIONAL THIRD-PARTY LICENSE TERMS AND RESTRICTIONS, AND THE CUSTOMER IS RESPONSIBLE FOR THEIR USE, INCLUDING: (A) OBTAINING OR COMPLYING WITH ANY LICENSE FOR THIRD-PARTY MODELS; (B) ENSURING THE SECURITY OF THE MODEL IN USE; AND (C) THE OUTPUT GENERATED BY THE MODEL IN USE. OUTPUT GENERATED BY MODELS IN AI INFERENCE IS NOT VERIFIED BY AZION FOR ACCURACY AND DOES NOT REPRESENT AZION’S VIEWS. Except as otherwise provided in the Customer Agreement or any documents attached thereto, AI Inference will be billed based on consumption of: (a) Compute Time and (b) Requests. +**AI Inference:** designed to run artificial intelligence (AI) models on Azion’s globally distributed infrastructure in response to a request, without requiring the customer to provision or manage the infrastructure for execution. For specific models, as detailed in the documentation available at https://www.azion.com/en/documentation/products/ai/ai-inference/models/, it includes access to: (1) OpenAI-compatible API; (2) support for LoRA (Low-Rank Adaptation) via add-on; and (3) model invocation through Edge Functions. AZION MAY TERMINATE, WITHOUT PRIOR NOTICE, THE EXECUTION OF MODELS THAT ARE: (A) CONSUMING MORE THAN THE MAXIMUM DEFINED MEMORY; OR (B) RUNNING LONGER THAN THE MAXIMUM ALLOWED TIME. AZION MAY DEPROVISION MODELS THAT HAVE BEEN CREATED BUT NOT EXECUTED FOR MORE THAN THREE (3) DAYS. THE MODELS AVAILABLE IN AI INFERENCE MAY BE SUBJECT TO ADDITIONAL THIRD-PARTY LICENSE TERMS AND RESTRICTIONS, AND THE CUSTOMER IS RESPONSIBLE FOR THEIR USE, INCLUDING: (A) OBTAINING OR COMPLYING WITH ANY LICENSE FOR THIRD-PARTY MODELS; (B) ENSURING THE SECURITY OF THE MODEL IN USE; AND (C) THE OUTPUT GENERATED BY THE MODEL IN USE. OUTPUT GENERATED BY MODELS IN AI INFERENCE IS NOT VERIFIED BY AZION FOR ACCURACY AND DOES NOT REPRESENT AZION’S VIEWS. Except as otherwise provided in the Customer Agreement or any documents attached thereto, AI Inference will be billed based on consumption of: (a) Compute Time and (b) Requests. **Application Accelerator:** an Edge Application module designed to accelerate web applications and APIs. It includes access to protocol optimization features, advanced caching rules (Advanced Cache Key) which allows granular caching with minimum TTL of 0 seconds, segmentation and caching policies based on criteria such as name/value of Cookies and Query Strings, in addition to features such as Rules Engine, Bypass Cache, KeepAlive, Forward Cookies, POST Cache, among others. HTTP GET, HEAD, POST, PUT, PATCH, DELETE and OPTIONS methods available. Except as otherwise provided for in the Customer Agreement or any other documents attached thereto, Application Acelerator will be billed considering the Data Transferred according to the volumes consumed. diff --git a/src/content/docs/pt-br/pages/contratos/tos/29-august-2025/terms-of-service-29-august-2025.mdx b/src/content/docs/pt-br/pages/contratos/tos/29-august-2025/terms-of-service-29-august-2025.mdx index 627d36c52a..566683be55 100644 --- a/src/content/docs/pt-br/pages/contratos/tos/29-august-2025/terms-of-service-29-august-2025.mdx +++ b/src/content/docs/pt-br/pages/contratos/tos/29-august-2025/terms-of-service-29-august-2025.mdx @@ -15,7 +15,7 @@ Todos os produtos e serviços da Azion são oferecidos como Edge Services e são ## 1\. Produtos e Serviços -**AI Inference:** projetado para executar modelos de inteligência artificial (AI) na infraestrutura global e distribuída da Azion, em resposta a uma requisição, sem que o cliente precise provisionar ou gerenciar a infraestrutura necessária para sua execução. Para modelos específicos, conforme documentação disponível em https://www.azion.com/pt-br/documentacao/produtos/ai/edge-ai/modelos/, inclui acesso a: (1) API compatível com OpenAI; (2) suporte a LoRA (Low-Rank Adaptation) via add-on; e (3) requisição do modelo realizada por Edge Functions. A AZION PODERÁ ENCERRAR, SEM AVISO PRÉVIO, A EXECUÇÃO DE MODELOS QUE ESTEJAM: (A) CONSUMINDO MAIS DO QUE A MEMÓRIA MÁXIMA DEFINIDA; OU (B) EXECUTANDO POR MAIS TEMPO QUE O MÁXIMO DEFINIDO. A AZION PODERÁ DESPROVISIONAR MODELOS CRIADOS E QUE NÃO TENHAM SIDO EXECUTADOS HÁ MAIS DE TRÊS (3) DIAS. OS MODELOS DISPONÍVEIS NO AI INFERENCE PODEM ESTAR SUJEITOS A TERMOS DE LICENCIAMENTO E RESTRIÇÕES ADICIONAIS DE TERCEIROS, E O CLIENTE É RESPONSÁVEL POR SEU USO, INCLUINDO: (A) O LICENCIAMENTO PARA USO DE MODELO DE TERCEIROS OU O RESPEITO AOS TERMOS DE USO DO MESMO; (B) A SEGURANÇA DO MODELO QUE UTILIZA; E (C) O RESULTADO GERADO PELO MODELO QUE UTILIZA. O RESULTADO GERADO POR MODELOS NO AI INFERENCE NÃO É VERIFICADO PELA AZION QUANTO À SUA PRECISÃO E NÃO REPRESENTA A OPINIÃO DA AZION. Salvo disposição em contrário no Contrato de Cliente ou quaisquer documentos anexos a ele, a cobrança do AI Inference se dará pelo (a) Compute Time e (b) Requests, de acordo com os volumes consumidos. +**AI Inference:** projetado para executar modelos de inteligência artificial (AI) na infraestrutura global e distribuída da Azion, em resposta a uma requisição, sem que o cliente precise provisionar ou gerenciar a infraestrutura necessária para sua execução. Para modelos específicos, conforme documentação disponível em https://www.azion.com/pt-br/documentacao/produtos/ai/ai-inference/modelos/, inclui acesso a: (1) API compatível com OpenAI; (2) suporte a LoRA (Low-Rank Adaptation) via add-on; e (3) requisição do modelo realizada por Edge Functions. A AZION PODERÁ ENCERRAR, SEM AVISO PRÉVIO, A EXECUÇÃO DE MODELOS QUE ESTEJAM: (A) CONSUMINDO MAIS DO QUE A MEMÓRIA MÁXIMA DEFINIDA; OU (B) EXECUTANDO POR MAIS TEMPO QUE O MÁXIMO DEFINIDO. A AZION PODERÁ DESPROVISIONAR MODELOS CRIADOS E QUE NÃO TENHAM SIDO EXECUTADOS HÁ MAIS DE TRÊS (3) DIAS. OS MODELOS DISPONÍVEIS NO AI INFERENCE PODEM ESTAR SUJEITOS A TERMOS DE LICENCIAMENTO E RESTRIÇÕES ADICIONAIS DE TERCEIROS, E O CLIENTE É RESPONSÁVEL POR SEU USO, INCLUINDO: (A) O LICENCIAMENTO PARA USO DE MODELO DE TERCEIROS OU O RESPEITO AOS TERMOS DE USO DO MESMO; (B) A SEGURANÇA DO MODELO QUE UTILIZA; E (C) O RESULTADO GERADO PELO MODELO QUE UTILIZA. O RESULTADO GERADO POR MODELOS NO AI INFERENCE NÃO É VERIFICADO PELA AZION QUANTO À SUA PRECISÃO E NÃO REPRESENTA A OPINIÃO DA AZION. Salvo disposição em contrário no Contrato de Cliente ou quaisquer documentos anexos a ele, a cobrança do AI Inference se dará pelo (a) Compute Time e (b) Requests, de acordo com os volumes consumidos. **Application Acelerator:** módulo do Edge Application projetado para acelerar aplicações web e APIs. Inclui acesso a funcionalidades de otimização de protocolos, regras avançadas de cache (Advanced Cache Key) que permite o cache granular com TTL mínimo de 0 segundos, segmentação e políticas de cache com base em critérios como name/value de Cookies e Query Strings, além de funcionalidades como Rules Engine condicional, Bypass Cache, KeepAlive, Forward Cookies, Cache de POST, dentre outras. Disponibiliza os métodos HTTP GET, HEAD, POST, PUT, PATCH, DELETE e OPTIONS. Salvo disposição em contrário no Contrato de Cliente ou quaisquer documentos anexos a ele, a cobrança do Application Acelerator se dará pelo Data Transferred de acordo com os volumes consumidos. diff --git a/src/content/docs/pt-br/pages/contratos/tos/index.mdx b/src/content/docs/pt-br/pages/contratos/tos/index.mdx index 5ce9f98263..5babab57c1 100644 --- a/src/content/docs/pt-br/pages/contratos/tos/index.mdx +++ b/src/content/docs/pt-br/pages/contratos/tos/index.mdx @@ -15,7 +15,7 @@ Todos os produtos e serviços da Azion são oferecidos como Edge Services e são ## 1\. Produtos e Serviços -**AI Inference:** projetado para executar modelos de inteligência artificial (AI) na infraestrutura global e distribuída da Azion, em resposta a uma requisição, sem que o cliente precise provisionar ou gerenciar a infraestrutura necessária para sua execução. Para modelos específicos, conforme documentação disponível em https://www.azion.com/pt-br/documentacao/produtos/ai/edge-ai/modelos/, inclui acesso a: (1) API compatível com OpenAI; (2) suporte a LoRA (Low-Rank Adaptation) via add-on; e (3) requisição do modelo realizada por Edge Functions. A AZION PODERÁ ENCERRAR, SEM AVISO PRÉVIO, A EXECUÇÃO DE MODELOS QUE ESTEJAM: (A) CONSUMINDO MAIS DO QUE A MEMÓRIA MÁXIMA DEFINIDA; OU (B) EXECUTANDO POR MAIS TEMPO QUE O MÁXIMO DEFINIDO. A AZION PODERÁ DESPROVISIONAR MODELOS CRIADOS E QUE NÃO TENHAM SIDO EXECUTADOS HÁ MAIS DE TRÊS (3) DIAS. OS MODELOS DISPONÍVEIS NO AI INFERENCE PODEM ESTAR SUJEITOS A TERMOS DE LICENCIAMENTO E RESTRIÇÕES ADICIONAIS DE TERCEIROS, E O CLIENTE É RESPONSÁVEL POR SEU USO, INCLUINDO: (A) O LICENCIAMENTO PARA USO DE MODELO DE TERCEIROS OU O RESPEITO AOS TERMOS DE USO DO MESMO; (B) A SEGURANÇA DO MODELO QUE UTILIZA; E (C) O RESULTADO GERADO PELO MODELO QUE UTILIZA. O RESULTADO GERADO POR MODELOS NO AI INFERENCE NÃO É VERIFICADO PELA AZION QUANTO À SUA PRECISÃO E NÃO REPRESENTA A OPINIÃO DA AZION. Salvo disposição em contrário no Contrato de Cliente ou quaisquer documentos anexos a ele, a cobrança do AI Inference se dará pelo (a) Compute Time e (b) Requests, de acordo com os volumes consumidos. +**AI Inference:** projetado para executar modelos de inteligência artificial (AI) na infraestrutura global e distribuída da Azion, em resposta a uma requisição, sem que o cliente precise provisionar ou gerenciar a infraestrutura necessária para sua execução. Para modelos específicos, conforme documentação disponível em https://www.azion.com/pt-br/documentacao/produtos/ai/ai-inference/modelos/, inclui acesso a: (1) API compatível com OpenAI; (2) suporte a LoRA (Low-Rank Adaptation) via add-on; e (3) requisição do modelo realizada por Edge Functions. A AZION PODERÁ ENCERRAR, SEM AVISO PRÉVIO, A EXECUÇÃO DE MODELOS QUE ESTEJAM: (A) CONSUMINDO MAIS DO QUE A MEMÓRIA MÁXIMA DEFINIDA; OU (B) EXECUTANDO POR MAIS TEMPO QUE O MÁXIMO DEFINIDO. A AZION PODERÁ DESPROVISIONAR MODELOS CRIADOS E QUE NÃO TENHAM SIDO EXECUTADOS HÁ MAIS DE TRÊS (3) DIAS. OS MODELOS DISPONÍVEIS NO AI INFERENCE PODEM ESTAR SUJEITOS A TERMOS DE LICENCIAMENTO E RESTRIÇÕES ADICIONAIS DE TERCEIROS, E O CLIENTE É RESPONSÁVEL POR SEU USO, INCLUINDO: (A) O LICENCIAMENTO PARA USO DE MODELO DE TERCEIROS OU O RESPEITO AOS TERMOS DE USO DO MESMO; (B) A SEGURANÇA DO MODELO QUE UTILIZA; E (C) O RESULTADO GERADO PELO MODELO QUE UTILIZA. O RESULTADO GERADO POR MODELOS NO AI INFERENCE NÃO É VERIFICADO PELA AZION QUANTO À SUA PRECISÃO E NÃO REPRESENTA A OPINIÃO DA AZION. Salvo disposição em contrário no Contrato de Cliente ou quaisquer documentos anexos a ele, a cobrança do AI Inference se dará pelo (a) Compute Time e (b) Requests, de acordo com os volumes consumidos. **Application Acelerator:** módulo do Edge Application projetado para acelerar aplicações web e APIs. Inclui acesso a funcionalidades de otimização de protocolos, regras avançadas de cache (Advanced Cache Key) que permite o cache granular com TTL mínimo de 0 segundos, segmentação e políticas de cache com base em critérios como name/value de Cookies e Query Strings, além de funcionalidades como Rules Engine condicional, Bypass Cache, KeepAlive, Forward Cookies, Cache de POST, dentre outras. Disponibiliza os métodos HTTP GET, HEAD, POST, PUT, PATCH, DELETE e OPTIONS. Salvo disposição em contrário no Contrato de Cliente ou quaisquer documentos anexos a ele, a cobrança do Application Acelerator se dará pelo Data Transferred de acordo com os volumes consumidos.