A transcrição abaixo corresponde à primeira sessão da nossa nova série de webinars “ML AI Short Series”, dedicada ao tema “O AI Act entra em ação: primeiras regras e proibições”.
Nesta conversa, realizada no contexto da entrada em vigor das primeiras disposições do Regulamento de Inteligência Artificial a 2 de fevereiro de 2025, Helena Tapp Barroso, Nicole Fortunato e Inês F. Neves analisam as práticas de IA proibidas, os desafios associados e as suas implicações práticas.
INÊS F. NEVES
Muito obrigada por se juntarem aqui a nós naquele que é o primeiro de uma série de webinars sobre o Regulamento de Inteligência Artificial, mais conhecido como AI Act. E a dinamizar este primeiro webinar, tenho comigo a Helena Tapp Barroso, é sócia da Morais Leitão, é co-coordenadora da equipa de seguros, resseguros e fundos de pensões e integra os departamentos de propriedade intelectual, tecnologia e dados pessoais e direitos do trabalho. A Nicole Fortunato, associada coordenadora da Morais Leitão, integra o departamento de propriedade intelectual, tecnologia e dados pessoais, sendo especialista em contratação e negociação de software, comércio eletrónico e tecnologias emergentes.
E eu, Inês Neves, associada do departamento de europeu e concorrência da Morais Leitão, integrando, com a Helena e com a Nicole, o grupo de prática transversal da Morais Leitão, ML Digital Cluster Artificial Intelligence, no âmbito do qual, também um bocado em antecipação do Regulamento de Inteligência Artificial, vimos acompanhando o enquadramento normativo nacional, europeu e internacional, também numa visão de direito estrangeiro aplicável à inteligência artificial.
É um grupo que conta com a participação de advogados de várias áreas de prática, porque consideramos que seria a abordagem mais adequada e tem precisamente por objetivo criar e disseminar também conhecimento interno e externo nesta matéria. Explicitando ou enquadrando o objetivo da sessão de hoje, enquanto se juntam aqui a nós, o objetivo passa por assinalar aqui o primeiro momento aplicativo do Regulamento de Inteligência Artificial. Como sabemos, ele entrou em vigor já em agosto de 2024, mas como é típico da legislação europeia, conhece uma aplicação faseada no tempo e o primeiro grande marco, o momento aplicativo, dá-se já agora no próximo dia 2 de fevereiro.
Entre fazer esta sessão antes ou depois, achamos que poderia fazer sentido fazê-la antes. Como sabe, este é um regulamento, assim em termos de introdutórios, que se baseia no quadro regulatório de segurança de produtos da União Europeia, algo que vem sendo criticado por algumas dissemelhanças entre a inteligência artificial e aquilo que é um produto, mas à parte as dúvidas e as críticas, o certo é que aborda aqui ou adota aqui uma abordagem semelhante àquela usada para garantir a conformidade de produtos.
Daí que, por exemplo, em matéria de classificação de risco, esta estrutura ou esta natureza acaba por ter também um impacto nessa classificação. Como sabemos, e é típico também da pirâmide de risco muito popularizada a propósito do AI Act, este regulamento proíbe certas práticas de inteligência artificial, cujo nível de risco é considerado inaceitável, por força aqui da probabilidade de ocorrência da gravidade, seja em matéria de saúde, segurança ou direitos fundamentais.
Em geral, regula, através de requisitos e obrigações específicos, os sistemas de risco elevado, além dos modelos de IA de finalidade geral e os respetivos operadores, como veremos correspondendo este, se quisermos, ao núcleo essencial do diploma, e depois também impõe alguns requisitos de transparência para determinados sistemas de inteligência artificial de risco limitado ou específico. Tudo isto, e naturalmente, acompanhado de um conjunto de regras relativas à fiscalização e supervisão do mercado, ao enforcement do regulamento, prevendo, nomeadamente, a adoção de medidas e de sanções por parte das autoridades competentes, e de medidas de apoio à inovação de que os IA regulatory sandboxes são aqui o exemplo paradigmático. Em termos de aplicação faseada no tempo considerando aqui o risco inaceitável associado a algumas práticas de inteligência artificial, o legislador europeu entendeu ser de antecipar aqui a aplicação das práticas proibidas, previstas no artigo 5º do Regulamento, já para o próximo dia 2 de fevereiro.
E é esta data que, de igual modo, assinala o início da aplicação de um conjunto de exposições gerais, que além do objeto e dos objetivos do Regulamento, no artigo 1.º, incluem também a delimitação do seu âmbito subjetivo, a quem é que o Regulamento se aplica, no artigo 2.º, um elenco de definições relevantes, que como veremos são aqui cruciais para compreender também o alcance de algumas das suas disposições, no artigo 3.º, e um importante artigo que não deve ser negligenciado, sobre literacia no domínio da inteligência artificial.
Pois bem, neste webinar de 30 minutos, o objetivo passa precisamente por passar aqui estes preceitos e compreendê-los um bocadinho, ou passá-los em revista. Tudo isto ainda naturalmente expectantes quanto às prometidas orientações da Comissão Europeia, nomeadamente relativas à definição do sistema de inteligência artificial e ao elenco de práticas proibidas, que estiveram em consulta pública entre 13 de novembro e 11 de dezembro de 2024, mas que não foram ainda publicadas a tempo, pelo menos deste webinar.
E então, começando pelo princípio, diria que é importante percebermos a quê e a quem é que este Regulamento se aplica. E eu atrever-me a dizer que a resposta a esta questão se calhar é um pouco ambivalente, com um âmbito que tanto parece lato, se perspetivado de um determinado prisma, como estreito. Não é verdade, Nicole?
NICOLE FORTUNATO
É isso mesmo Inês, a definição do sistema de inteligência artificial que foi acolhida pelos legisladores europeus é de facto muito abrangente.
Um sistema de inteligência artificial, e agora aqui passo a citar, ficou definido como um “sistema baseado em máquinas, concebido para funcionar com níveis de autonomia variáveis e que pode apresentar capacidade de adaptação após a implementação”, portanto aqui uma referência ao machine learning, “e que para objetivos explícitos ou implícitos e com base nos dados de entrada que recebe, infere de forma a gerar resultados, tais como provisões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais”.
Mas não é só neste âmbito mais objetivo, também no âmbito subjetivo o regulamento parece ser muito abrangente. E citando aqui mais uma vez o artigo 2.º, afeta prestadores que coloquem sistemas de inteligência artificial no mercado ou os ponham em funcionamento na União, independentemente de estarem estabelecidos ou não na União, portanto mais uma vez aqui o critério da extraterritorialidade que tem sido muito comum nos regulamentos europeus. Os utilizadores profissionais, portanto, estão excluídos do âmbito subjetivo da aplicação do regulamento, os utilizadores que não tenham uma intenção de uso profissional com o sistema de inteligência artificial e, neste caso, que estejam localizados dentro da União.
Prestadores e utilizadores, mais uma vez profissionais, fora da União, caso o resultado do sistema de inteligência artificial seja utilizado dentro da União e, claro, as pessoas afetadas pelos sistemas de inteligência artificial dentro da União. No entanto, apesar disto parecer de facto muito abrangente, até pela questão da extraterritorialidade, a verdade é que logo de seguida o artigo 2.º identifica de forma muito explícita os vários tipos de sistemas de inteligência artificial que não estão abrangidos pelo regulamento.
E são eles, os sistemas utilizados exclusivamente para fins de segurança nacional, militar e defesa; autoridades públicas de países terceiros que utilizem inteligência artificial no âmbito da cooperação internacional ou da aplicação da lei; os sistemas de inteligência artificial desenvolvidos para investigação científica e inovação desde que não sejam posteriormente comercializados, portanto aqui claramente um estímulo à inovação e à continuidade da aposta europeia na investigação e na inovação de sistemas de inteligência artificial, relativamente à testagem destes sistemas antes de serem colocados no mercado desde que esse teste não seja feito em ambiente real; e os sistemas de inteligência artificial lançados ao abrigo de licenças gratuitas e de código aberto que não sejam colocados no mercado ou colocados em serviço com sistemas de inteligência artificial de risco inaceitável, de risco elevado ou de finalidade geral.
Além disso, esta abordagem baseada no risco que nos é transmitida pelo Regulamento acaba obviamente por colocar aqui ou excluir do âmbito da sua aplicação aquilo que são, de forma implícita, os sistemas de inteligência artificial de risco mínimo, portanto há aqui de facto uma preocupação em função do risco do legislador europeu, qualificando apenas esses como relevantes para o âmbito do Regulamento.
E não bastando, mesmo naqueles, em alguns sistemas de inteligência artificial que estão cobertos pelo âmbito do Regulamento, temos que ter aqui em atenção um artigo que muitas vezes passa despercebido que é o artigo 111, que exclui ainda a aplicação do Regulamento a sistemas de inteligência artificial que apesar de serem de risco elevado, portanto, eles no fundo estão cobertos pelo Regulamento, mas foram colocados no mercado antes de 2 de agosto de 2026 e nesse caso o Regulamento só lhes será aplicável se após essa data esses sistemas forem sujeitos a alterações significativas em termos de conceção.
E atenção que de facto aqui o significativo tem mesmo um significado material, porque aqui o legislador não está a referir-se a atualizações de versões que tenham meras correções de erros ou até alterações formais no front-end do próprio sistema, o propósito aqui é que considerem apenas sistemas de inteligência artificial cujas alterações realizadas afetem de forma significativa os pressupostos iniciais da conceção deste sistema.
Mas, no entanto, este artigo 111 tem aqui uma ressalva, que é precisamente os sistemas de inteligência artificial de risco inaceitável e, portanto, é precisamente por estes já estarem, supostamente a partir do dia 2 de fevereiro, em vigor que é importante nós percebemos aqui quais são então esses sistemas de inteligência artificial de risco inaceitável e para isso, para nos explicar melhor esta parte, devolvo a palavra à Inês.
INÊS F. NEVES
Muito obrigada, Nicole. De facto, é importante termos em mente este elenco do artigo 5.º porque, apesar das empresas terem sensivelmente até agosto de 2026 para conformarem as suas práticas internas, as suas políticas e a sua estrutura de compliance com os requisitos e obrigações que se consideram ser o núcleo essencial deste regulamento e que se aplicam aos sistemas de inteligência artificial classificados como de risco elevado e, apesar também de ser certo que os Estados-membros estão ainda em tempo de designar as respetivas autoridades nacionais competentes pelo enforcement do regulamento e depender desse enforcement, em verdade, o pleno efeito das proibições, nomeadamente através da possibilidade de aplicação de sanções e de medidas de supervisão de mercado, o certo é que, tendo em conta precisamente este risco inaceitável associado a algumas utilizações de inteligência artificial, o legislador entendeu que seria de antecipar já a sua aplicação, reconhecendo, aliás, nos considerandos, e isto importa ter em mente, que não obstante o enforcement do regulamento em si ainda não esteja em plena aplicação, ainda assim estas proibições poderão ter, diz o legislador, efeitos noutros procedimentos, nomeadamente de natureza cível e isto importa que de facto tenhamos em mente e estejamos, por isso, cientes desse elenco.
O que é que nós encontramos neste artigo 5.º? Encontramos, desde logo, os temas de inteligência artificial que empreguem técnicas subliminares, manifestamente manipuladoras ou enganadoras, ou que explorem vulnerabilidades de uma pessoa, reparem, com o objetivo ou efeito de distorcer substancialmente o seu comportamento e causando danos significativos. São pressupostos cumulativos e importa perceber que, de facto, o alcance aqui das proibições está, de facto, carecido de orientações por parte da Comissão, que não tendo ainda saído, certamente já terão, porventura, passado os olhos pelas pronúncias que foram feitas, justificando aqui a necessidade de perceber um bocadinho melhor o que é que é isto de uma técnica subliminar, manifestamente manipuladora ou enganadora, para efeitos de também compreendermos o alcance da proibição.
Num segundo momento, temos também proibidos os temas de inteligência artificial utilizados na avaliação ou classificação social de pessoas, social scoring, mais comumente conhecido, classificação essa que seja feita com base no respetivo comportamento social, mais uma noção que importa aqui densificar sobre a forma de orientações, o que é que é isto de comportamento social, o que é que fica abrangido, ou com base nas características pessoais ou de personalidade, conhecidas, inferidas ou previsíveis. Portanto, temos aqui um conjunto de noções que, de facto, estão a aguardar alguma densificação a mais.
E temos ainda sistemas de inteligência artificial concebidos para inferir e detetar o estado emocional de pessoas no local de trabalho e em instituições de ensino. Portanto, sistemas para inferir emoções nestes dois domínios em particular, laboral e ensino, ressalvados os usos médicos ou de segurança, o que suscita depois também um conjunto de novas questões, que aliás eu e a Helena e a Nicole estávamos a discutir aqui há dias, realmente com exceção daquilo que sejam dispositivos médicos de facto necessários para efeitos de proteção e segurança.
Depois há aqui um conjunto de utilizações numa linha muito ténue e entre o que pode ser proibido, o que pode ser risco elevado e o que pode ser de risco mínimo. E, na verdade, importa perceber esta ideia, é que nós temos de facto a possibilidade de enquadrar sistemas em sentido abstrato, com base nos respetivos usos ou práticas que lhes são destinadas, nas diferentes categorias de risco, o que pode suscitar aqui a necessidade depois de uma análise mais concreta. Mas o elenco de práticas não se fica por aqui e continua depois com um conjunto de usos que, pelo menos a quem trabalha com proteção de dados, não surgirão estranhos, não é verdade Helena?
HELENA TAPP BARROSO
Sim, obrigada, Inês. E talvez o melhor exemplo para começar a fazer essa ligação seja a proibição que diz respeito à utilização ou à colocação no mercado, à utilização dos sistemas que criem ou que expandam bases de dados de reconhecimento facial através do scraping, através da recolha aleatório do scraping de imagens faciais na internet, na televisão ou CCTV.
Há um exemplo muito conhecido que é o do Clearview AI, que é aquela empresa norte-americana que desenvolveu um sistema de pesquisa de reconhecimento facial, que, segundo se sabe, tem uma base de dados de várias milhares de milhões de fotografias e de imagens faciais recolhidas na internet, tudo a partir das plataformas acessíveis ao público, Instagram, Facebook, também sítios de web, empresas, e que tem suscitado também muita reação, designadamente, ao nível das autoridades de proteção de dados, quer no Reino Unido e na União Europeia, a francesa, a italiana, mais recentemente a holandesa, que aplicou uma crema de 30 milhões e 500 mil [euros], e, portanto, sistemas que expandam ou criem estas bases de dados de reconhecimento facial massivas a partir de imagens faciais da internet, são sistemas que estão entre o elenco dos sistemas proibidos.
Outro exemplo de sistema proibido são os sistemas para utilização de policiamento preditivo, ou seja, basicamente sistemas que permitam a realização de avaliação de risco de pessoas singulares, com base exclusivamente na definição de perfis da pessoa ou avaliação dos traços e características de personalidade da pessoa para avaliação ou previsão de risco dessa pessoa cometer infração penal. Há vários sistemas de policiamento preditivo, alguns baseados em determinadas zonas, em determinados tipos de ilícitos, mas também centrados e focados na probabilidade do risco de pessoas determinadas, cometerem infrações penais. E este policiamento preditivo focado em pessoas singulares, com base exclusivamente nessa tal definição de perfis de pessoa ou avaliação dos traços e características de personalidade, estão também entre o elenco dos sistemas proibidos.
Há um sistema muito conhecido, que é o sistema COMPAS, que é usado pelos tribunais criminais nos Estados Unidos para avaliar o risco de reincidência, sobretudo usado na determinação das medidas de coação preventivas, no qual se têm encontrado situações de bias ou de discriminação racial, e é essencialmente uma das preocupações que está na base também desta proibição, e, portanto, da proibição sempre associada ao uso em que se identificou que o risco era inaceitável.
Por outro lado, os sistemas de categorização biométrica, e é preciso ter em conta que há no fundo uma série de definições que depois temos de conjugar com estas proibições, por exemplo, a definição do sistema de categorização biométrica, em que no fundo se faz uma classificação de pessoas em categorias específicas com base nos seus dados biométricos, o AI Act, também contém uma definição de dados biométricos que é coincidente com a definição que consta do RGPD, e aqui ao nível da categorização biométrica são proibidos os sistemas que classificam individualmente as pessoas com base nos dados biométricos para deduzir ou inferir a raça, opiniões políticas, filiação sindical, convicções religiosas ou filosóficas, ou seja, a vida sexual, orientação sexual, ou seja, aqueles atributos ou dados, informações que estão classificados como sensíveis no RGPD.
Eu queria só chamar uma nota até para a importância de se fazer a destrinça e a importância do elemento de interpretação e de limitação dos sistemas, é que, por exemplo, ao nível dos sistemas classificados como risco elevado, também há sistemas de identificação biométrica e de categorização biométrica que não são proibidos. Aqueles em que a categorização biométrica é feita de acordo com atributos ou características sensíveis ou protegidas, com base na inferência desses atributos, são classificados como de risco elevado e não proibidos.
Aqui, neste caso, nos proibidos, estamos a fazer a inferência daquelas informações sensíveis a partir de dados biométricos. Por fim, os sistemas de identificação biométrica à distância e em tempo real para efeitos de aplicação da lei, a determinadas exceções, são também sistemas proibidos. Uma nota aqui também é que, novamente, temos definições daquilo que se considera um sistema de identificação biométrica, um sistema de identificação que, no fundo, é um reconhecimento automatizado de características humanas, físicas, comportamentais ou psicológicas para identificar uma pessoa, comparando com dados biométricos dessa pessoa ou dados biométricos de pessoas armazenadas numa base de dados.
E temos outras definições que precisamos de densificar, que constam do AI Act, para fazer a interpretação do âmbito desta proibição. Uma nota só final é que o próprio AI Act refere que esta proibição, em que está em causa, no fundo, a utilização para efeitos de aplicação da lei, não prejudica as regras do RCPD, designadamente as regras sobre dados sensíveis entre os quais temos os dados biométricos, no que respeita ao tratamento de dados biométricos para outros físicos e não à aplicação da lei.
Este ponto é também demonstrativo da importância de não lermos o AI Act, não lermos o regulamento de inteligência artificial num vácuo, ignorando tudo o que já existe designadamente em termos de legislação. Nicole, eu passava-te até para comentar um este aspeto do cruzamento com outros quadros legislativos.
NICOLE FORTUNATO
Sim, é verdade. Este hype que se gerou em torno dos sistemas de inteligência artificial, enfatizou esse receio de vácuo legislativo, portanto parece que andámos todos a correr atrás do “temos que ter uma lei que proteja os cidadãos de sistemas de inteligência artificial que sejam considerados como inaceitáveis”, mas a verdade é que se nós olharmos para aquilo que já eram os nossos precedentes legislativos, quer nacionais, quer internacionais, praticamente todos os Estados Membros já tinham os seus mecanismos de proteção relativamente a práticas discriminatórias, a práticas ilícitas.
Basta olharmos, por exemplo, para a nossa própria Constituição, que é completamente agnóstica quanto ao meio com que se atinge uma situação de discriminação e, portanto, seja através de um automatismo, ou seja, através de um ser humano, discriminação é discriminação e, portanto, por princípio os cidadãos portugueses já estariam protegidos.
Mas mais recentemente tivemos também a Carta Portuguesa de Direitos Humanos na Era Digital, que vem também criar alguns princípios, alguns direitos fundamentais relacionados com a utilização de sistemas digitais, em particular quando esteja em causa a utilização de sistemas de inteligência artificial, com especial ênfase na questão da informação ao utilizador, da transparência, no sentido que eu, o utilizador, tenho que estar a perceber que, de facto, estou a interagir com o sistema de inteligência artificial, sendo isto até um princípio que acaba por depois também ser, e hoje em dia já plenamente em vigor, acolhido pelo próprio Código do Trabalho, e se calhar aqui voltaria a passar a palavra à Helena para identificar exatamente em que medida.
HELENA TAPP BARROSO
Sim, aqui neste caso e relativamente a esta referência, nós desde a Agenda do Trabalho Digno que o Código do Trabalho inclui obrigações específicas de transparência, de prestação de informação por parte dos empregadores, quer aos trabalhadores, quer às estruturas representativas, sempre que utilize, enfim, e a linguagem do código é esta, sistemas de inteligência artificial ou outros algoritmos, e aqui há aqui uma incorreção, mas enfim é o que lá está, e o que importa é o tema da transparência, sobretudo em processos decisórios de contratação, definição de condições de trabalho e também de cessação.
E aí as obrigações de transparência abrangem aspetos sobre, no fundo, a lógica subjacente, aspetos, digamos, no fundo aspetos de transparência que revelem os elementos subjacentes ao processo decisório, usando os sistemas de inteligência artificial. Uma nota final, e eu penso, Nicole, que não tinhas outras referências, certo? Pronto, uma nota final que nós queríamos te ajudar, e até porque também estamos aqui um bocadinho, estamos conscientes do tempo, é um outro aspeto que vale a pena ter presente, relativamente à aplicação que se inicia em 2 de fevereiro, que foi aliás mencionado pela Inês no início, é a disposição sobre literacia no domínio de inteligência artificial.
Concretamente, aquilo que se prevê no AI Act e que entra em rigor já a partir do próximo dia de 2 de fevereiro, vai representar e representa a necessidade de determinados operadores de sistemas de inteligência artificial, já vamos ver quais, adotarem medidas concretas para garantir que o seu pessoal e outras pessoas que, em nome desses operadores, estejam envolvidos na operação e na utilização dos sistemas, dispõem de um nível suficiente de literacia no domínio da inteligência artificial.
Em primeiro lugar, a que operadores é que este dever se aplica? Aplica-se, por um lado, aos próprios prestadores, dos providers, dos que desenvolvem e que introduzem no mercado ou em serviço, mas também se aplica aos, assim chamados, responsáveis pela implantação dos sistemas de AI, que são no fundo os utilizadores profissionais, que foi aliás a expressão que a Nicole utilizou para falar dos players e dos operadores, muito mais claro do que esta, responsáveis pela implantação de sistemas de IA.
Enfim, são os deployers, são os utilizadores profissionais, qualquer pessoa ou entidade que utilize o sistema de IA sobre a sua própria autoridade, excecionada a tal utilização no âmbito da atividade pessoal de caráter não profissional. Portanto, estes são aqueles operadores a quem o dever de criar condições para a literacia se aplica.
Em segundo lugar, os destinatários a quem se pretende garantir que venham a dispor desse tal nível suficiente de literacia no domínio da inteligência artificial, são o pessoal destes operadores ou outras pessoas, em ambos os casos, que estejam envolvidas na operação e na utilização de sistemas de AI em nome desses operadores.
E a literacia, como sabemos, é um ponto essencial de um sistema de governance de AI responsável e há uma antecipação disso, e a inclusão desta obrigação já a partir de 2 de fevereiro, é uma antecipação disso e o reconhecimento do elemento essencial, que esse conhecimento e perceção dos riscos, das potencialidades, das capacidades e do próprio enquadramento legal, restrições e espaços de responsabilidade, enfim, justificam e impõem.
Em terceiro lugar, o que é que eles estão obrigados a fazer? Estão obrigados a adotar medidas, como se diz, para garantir na medida possível que aquelas pessoas disponham do nível suficiente de literacia, tendo em conta os conhecimentos técnicos das pessoas, a experiência, as qualificações académicas e a formação, portanto elementos atinentes aos próprios destinatários da formação, mas também o contexto em que os sistemas de inteligência artificial serão utilizados, bem como as pessoas ou grupos de pessoas que vão ser visadas com essa utilização, portanto, aspetos relacionados com os próprios sistemas e os usos concretos desses sistemas.
Enfim, há uma definição também do que se entende por literacia no domínio da inteligência artificial, mas há um conjunto, no fundo, de passos que precisam de ser tomados e que, no fundo, é estruturar um programa de literacia e, se é necessário, é necessário definir quais são os objetivos e não é one size fits all, como vimos, porque isso depende dos destinatários, identificar bem os destinatários que precisam, relativamente aos quais as medidas devem ser tomadas e reparem que não são só trabalhadores, não é só pessoal, portanto, podemos ter aqui situações de outros parceiros ou entidades, planear o conteúdo e os métodos de fornecimento dessa formação, alocar recursos, ter um timeline adequado e depois medir o sucesso da aplicação do programa e claro que é um programa ongoing.
INÊS F. NEVES
Então, e para terminar, eu talvez vos devolvesse a seguinte questão. Assim, numa frase, o que é que recomendariam às empresas neste momento crucial de kick-off aqui do AI Act e talvez começasse pela Nicole.
NICOLE FORTUNATO
Bom, a primeira recomendação que eu diria às empresas é que não atrasem os seus planos de digitalização por causa do Regulamento de Inteligência Artificial. É importante notar que a própria União Europeia enfatiza que este regulamento tem também como objetivo principal, para além de tudo aquilo que já falámos de proteção do cidadão de sistemas de inteligência artificial inaceitáveis ou de governance de sistemas de alto risco, também tem como objetivo promover a inovação e a criação de mais sistemas de inteligência artificial na União Europeia.
Aliás, ainda recentemente tivemos a Comissão Europeia a pronunciar sobre a construção de fábricas de inteligência artificial na Europa e, portanto, claramente, a Europa precisa muito deste incentivo e deste estímulo à inovação e isto começa, obviamente, pelas empresas que estão sediadas e estabelecidas na União Europeia e, portanto, não há que ter medo dos sistemas de inteligência artificial.
Agora, a partir do momento em que existir um plano, é importante reclassificar e avaliar os sistemas de inteligência artificial antes da sua implementação e isto significa o quê? Antes de eu celebrar um contrato com um prestador de sistema de inteligência artificial ou antes de criar as condições para o seu desenvolvimento interno.
E é no fundo aí que nós achamos que a consultoria pode ser útil. Atenção que aqui o objetivo da consultoria jurídica não é, em caso nenhum, de bloquear, a menos que vocês estejam mesmo interessados em estabelecer um sistema social scoring ou outro de risco inaceitável, mas à partida apenas queremos garantir que vai haver uma implementação sustentável de qualquer sistema de inteligência artificial dentro da empresa. Helena, podemos acrescentar aqui mais alguma coisa antes de concluir?
HELENA TAPP BARROSO
Sim, eu não resisto, portanto, e acho que a dizer que com base naquele trabalho que nós temos feito aqui designadamente no âmbito cluster na Morais Leitão, temos uma abordagem já trabalhada para suportar precisamente essas diversas peças e passos que podem permitir assegurar no fundo o desenvolvimento, a contratação, o uso de inteligência artificial num quadro do Responsible AI que seja conforme e isto não é one size fits all, há aspetos do tipo de organização, dos usos essenciais, da dimensão, das políticas e processos que já disponham, das normas setoriais e outras normas que cruzam com o âmbito específico do regulamento e, claro, juntando a isso também soluções para suportar as organizações na identificação dos deveres específicos relacionados com a literacia de que falámos e sobre os quais também já disse mais alguma coisa em termos de passos e portanto não vou dizer mais.
Eu posso dizer que nós estamos entusiasmados com o trabalho que temos estado a desenvolver, no fundo para conseguir dar resposta e dar resposta conforme e atentos às orientações e às guidelines que venham e às melhores práticas e acho que no essencial é o que temos.
INÊS F. NEVES
Muito obrigada a ambas e talvez retomando aqui as vossas últimas palavras, dar nota de que de facto os próximos tempos serão tempos interessantes, tendo em conta não só a bússola para a competitividade, anunciada há dois dias e que de facto vem recentrar o discurso em torno da inovação, o que poderá contrastar com o enquadramento no qual vimos ou assistimos à adoção deste regulamento e que certamente poderá impactar quer nas orientações, quer no próprio enforcement do regulamento e é necessário termos isso em mente, além naturalmente da necessidade de uma aplicação contextualizada e atenta aqui às nuances dos sistemas e dos usos a que estão dedicados.
Fica o nosso convite para que estejam atentos também às próximas atividades do Cluster e em particular aos próximos webinars que acompanharão aqui a aplicação faseada do regulamento e que procurarão também ir acompanhando e assinalando aqueles que são os desenvolvimentos no direito à união que não se fingem ao regulamento 2024-1689 que encontramos na página da Eur-lex, mas que se encontram depois também em atos delegados, em orientações, em consultas públicas, consultas essas que são da maior relevância para as empresas, nomeadamente porque é através da consulta pública que conseguem fazer chegar ao legislador europeu alguma dificuldade prática, alguns usos e isso foi algo marcante na consulta pública que ocorreu em novembro, na qual a Comissão Europeia pediu mesmo que as empresas levassem usos concretos para que ela pudesse alimentar as orientações.