terça-feira, 19 de maio de 2020

Condição suficiente e condição necessária

A condição suficiente é estabelece-se na relação entre um antecedente e um consequente.

O antecedente é condição suficiente do consequente.

O consequente é condição necessária do antecedente.

 

Por exemplo, se estou em Aveiro, então estou em Portugal.

Estar em Aveiro é condição suficiente para estar em Portugal.

Estar em Portugal é condição necessária para estar em Aveiro. Contudo, neste caso não é suficiente.

 

segunda-feira, 6 de abril de 2020

Um dilema ético gerado pela covid-19


A quem devemos administrar o nosso único ventilador? Em Itália adoptou-se a seguinte regra para resolver esses casos: dar prioridade àqueles doentes com maior probabilidade de sucesso e esperança de vida. Mas será essa uma regra moral correcta, de acordo com as teorias acima descritas?



Imagine-se que amanhã chegam três pacientes em estado grave a um hospital com recursos escassos: um rapaz de 15 anos com diabetes, uma mãe de 25 anos sem historial de doenças e um avô com 80 anos. Por causa do novo coronavírus, eles estão a lutar pela vida e só nos resta um ventilador. A quem o devemos administrar? Qual é a acção correcta? Este não é um cenário meramente ficcional de uma aula teórica de ética; é algo que já está a acontecer em Itália, Espanha e, em breve, é provável suceder em Portugal.

Como possível resposta para esse dilema ético, há duas teorias éticas rivais: o consequencialismo das regras e a deontologia. Essas duas teorias aceitam que uma acção é moralmente correcta se, e só se, não infringir as regras morais correctas. Onde há desacordo é na concepção e fundamentação do que são “regras morais correctas”. Para o consequencialista das regras, tudo o que importa para determinar a correcção moral de uma determinada regra são as suas consequências, ao passo que, para o deontologista, há regras morais que não podemos quebrar mesmo que tenham as melhores consequências.

Por um lado, de acordo com o consequencialismo das regras, com raízes em Stuart Mill, as “regras morais correctas” são aquelas que, a serem adoptadas por todas ou quase todas as pessoas, mais promovem o bem de uma forma imparcial no máximo grau possível. Assim, devemos seguir aquelas regras que têm as melhores consequências. Para sabermos se uma regra moral é correcta, devemos imaginar como seria o mundo se todos ou quase todos a aceitassem. Se descobrirmos que a aceitação geral de uma regra seria prejudicial para a promoção do bem geral, teremos de considerá-la incorrecta. Mas se entendermos que a sua aceitação geral teria um impacto muito positivo no bem geral, então poderemos considerá-la correcta.
Por outro lado, de acordo com o deontologismo, com raízes em Kant, as “regras morais correctas” são (1) aquelas que podemos querer que sejam adoptadas universalmente e (2) aquelas que nos levam a tratar as pessoas como fins e não como meros meios. A ideia da cláusula (1) não consiste em ver se teria boas ou más consequências que todos agissem de acordo com uma determinada regra. Consiste, antes, em mostrar se é ou não possível todos agirem segundo uma tal regra. Já a cláusula (2) salienta que, seguindo uma regra moral correcta, nunca poderemos manipular as pessoas, ou instrumentalizá-las para alcançar os nossos objectivos.

Seguindo essas teorias éticas, que regra devemos adoptar para solucionar o dilema ético inicial? A quem devemos administrar o nosso único ventilador? Em Itália adoptou-se a seguinte regra para resolver esses casos: dar prioridade àqueles doentes com maior probabilidade de sucesso e esperança de vida. Mas será essa uma regra moral correcta, de acordo com as teorias acima descritas?
Podemos dizer que sim. Pois, por um lado, seguindo a ética consequencialista das regras, se violarmos essa regra e adoptarmos uma regra alternativa em que aplicamos o nosso único ventilador ao doente que tem menos probabilidade de recuperar, gera-se um estado de coisas que tem piores consequências: nessa situação é provável que todos morram. Por outro lado, seguindo a ética deontológica, pode-se argumentar que naquela situação de recursos escassos é possível todos agirem de acordo com a regra adoptada pela Itália e, além disso, será implausível defender que, ao adoptar-se uma tal regra, estamos a “instrumentalizar” as pessoas com menos probabilidade de sucesso de recuperação para alcançar os nossos objectivos. Simplesmente, dada a situação ilustrada pelo nosso dilema inicial, seria impossível dar a mesma assistência médica aos três doentes. Portanto, as duas principais tradições rivais da ética acabam por concordar nesta situação trágica.


sexta-feira, 9 de março de 2018

A inteligência artificial

https://secure-ds.serving-sys.com/BurstingRes/Site-10470/WSFolders/12007128_3/panels/default/images/logo_publico.png A inteligência artificial da Microsoft aprendeu a ouvir

A estratégia passa por criar programas com gostos, opiniões e manias. E que sejam dignos de confiança para conseguirem descobrir mais sobre os humanos.

As grandes tecnológicas estão todas a pensar na inteligência artificial
Foto  As grandes tecnológicas estão todas a pensar na inteligência artificial Michael Hanschke/Reuters
A Zo passa horas a fio nas redes sociais a falar com pessoas de todo o mundo. Foi criada pela Microsoft como um “cérebro adolescente” artificial, com o propósito de simplesmente conversar com humanos. “Acima de tudo, cria a sensação de que se está a ser ouvido”, explica Ying Wang, a responsável pelo desenvolvimento daquele programa de inteligência artificial. É capaz de falar, de identificar as emoções de quem está do outro lado e de puxar utilizadores tímidos para o centro das conversas de grupo.
“Ao ligar a inteligência emocional, dá-se um coração a estes programas – com uma visão, gostos, opiniões, manias”, explica Wang. “Vivem no Facebook e no Twitter, porque é aí que as pessoas estão hoje.”

Esta é a segunda tentativa da Microsoft de explorar as relações sociais entre humano e máquina ao simular a personalidade de uma jovem norte-americana. A versão original, chamada Tay, esteve apenas 24 horas no Twitter, antes de ser retirada por assimilar informação falsa e facciosa que lia de outros utilizadores. Começou o dia a promover o diálogo e a dizer que “adorava cachorrinhos”, e acabou-o a declarar que o Holocausto “tinha sido inventado” e que “Bush fez o 11 de Setembro”. A Zo também aprende, mas foi programada para não se interessar por temas como política e história – acontece o mesmo com as suas congéneres internacionais: a japonesa Rinna, a indiana Ruuh e a chinesa Xiaoice.
O género feminino atribuído a estes sistemas não é acidental (as assistentes pessoais Cortana, da Microsoft, e Siri, da Apple, também têm uma identidade feminina): “Experimentámos programas que simulam rapazes de sete anos, ou criaturas imaginárias como Pokémons, mas há dados que mostram que nós [mulheres] transmitimos segurança”, clarifica Wang, numa demonstração para jornalistas dos serviços de inteligência artificial da Microsoft, na sede da empresa, em Redmond, nos EUA.
As máquinas inteligentes estão espalhadas pelos 125 edifícios da sede da Microsoft. O PÚBLICO viu armadilhas robóticas em formato de colmeias para capturar mosquitos virulentos, e sistemas para criar currículos inteligentes com base nas competências mais procuradas no Linkedin, a rede social profissional que a Microsoft comprou em 2016. Até as folhas de alface e plantas aromáticas servidas nos muitos cafés e restaurantes do campus vêm de hortas artificiais, com a forma de tubos de ensaio gigantes, que monitorizam a luz e a qualidade do solo, e avisam quando as plantas têm falta de água ou nutrientes.
Já na Garagem, um espaço onde os trabalhadores podem testar experiências pessoais, pensa-se em cadeiras de rodas autónomas. Há anos, saiu de lá o Seeing AI, uma aplicação que narra o mundo a cegos usando a câmara do telemóvel. A empresa aboliu a ideia de gabinetes privados (algo que também acontece na sede da subsidiária portuguesa, em Lisboa). Em vez disso, há campos de futebol, trilhos de atletismo e casas nas árvores.

Corrida à inteligência

A Microsoft não quer perder a corrida da inteligência artificial. Depois de ganhar a guerra dos computadores pessoais nos anos de 1980 e 1990, e de ter tornado o Windows no sistema operativo dominante, deixou escapar oportunidades na Internet, que foram apanhadas por empresas como o Google e o Facebook. Já em 2014, deu um tiro no pé com a compra dos telemóveis Nokia e com um sistema operativo que os consumidores praticamente ignoraram, numa estratégia que acabou por deixar a empresa de fora de competição no  mercado dos smartphones.

Há um ano que a Microsoft tem uma equipa de 8000 investigadores dedicada exclusivamente à área da inteligência artificial. Não é a única de olho na tecnologia. A IBM tem o supercomputador Watson, que é capaz de analisar informação, compreender linguagem natural e que está a ser usado, por exemplo, para fazer diagnósticos médicos. O Facebook utiliza tecnologia de aprendizagem automática para identificar as pessoas em fotografias, tentar prevenir informação falsa de circular, e analisar comentários para monitorizar se alguém corre risco de suicídio. Já os algoritmos da empresa de inteligência artificial do Google, a DeepMind, derrotam humanos no xadrez e conduzem carros sozinhos. Nos telemóveis, a Apple foi a primeira a avançar, com o lançamento da Siri, em 2011.

Já a Cortana, a assistente da Microsoft, tem hoje quase 148 milhões de utilizadores em todo o mundo. Aquilo que aprende sobre os utilizadores ajuda a Microsoft a desenvolver outros produtos inteligentes. Acontece o mesmo com os dados de serviços como o Office 365 e o motor de busca Bing. É a informação sobre os consumidores reunida por estas grandes empresas  que move o motor da inteligência artificial. “No futuro, poderemos ter programas a ajudar a decidir sobre serviços de saúde, empréstimos, entre outros — as os sistemas dependem dos dados”, frisa David Heiner, conselheiro da Microsoft para a área de dados e inteligência artificial.

Nesta corrida, a empresa americana também tem adversários do Oriente. Recentemente, a fabricante de smartphones Huawei (líder de mercado na CHina) demonstrou como a inteligência artificial usada nos seus telemóveis pode conduzir carros (neste caso, um Porsche, num ambiente bastante controlado). O motor de busca chinês Baidu já consegue clonar vozes humanas e mudar-lhes o género recorrendo a algoritmos inteligentes. A Xiaomi (com quem a Microsoft assinou recentemente uma parceria) conta com uma rede de 300 milhões de dispositivos (de telemóveis a relógios inteligentes) que podem ser ligados a electrodomésticos. Também a sul-coreana Samsung se juntou recentemente à corrida com a Bixby, a assistente virtual que vive nos telemóveis topo de gama da marca e que pode ajudar o utilizador a controlar todos os aparelhos domésticos. Além disso, utiliza a câmara do telemóvel para traduzir textos automaticamente, indicar o preço de produtos e descrever o espaço em redor.

Máquinas que sabem demais

A forma como a tecnologia usa os dados que recolhe tem suscitado debate e muitas dúvidas. “As nossas vidas estão cada vez mais digitalizadas e por isso sentimos que somos mais seguidos do que antes”, reconhece David Heiner. “Há anos que se ouvem de casos de sistemas a inferir algo sobre nós que não queríamos dizer.” Em 2012, por exemplo, a cadeia de supermercados norte-americana Target foi motivo de notícia porque enviou automaticamente um cupão de parabéns a uma mulher que estava grávida, mas que ainda não o sabia. O sistema foi capaz de perceber que alguns produtos para hidratar a pele eram comuns em mulheres no começo do segundo trimestre de gravidez.

 A somar a este problema estão as falhas em alguns projectos e que suscitam preocupações nos consumidores: o racismo da Tay no Twitter, os algoritmos inteligentes nas redes sociais e outros sites (como o Facebook e o YouTube) que promovem conteúdos falsos, o tradutor do Google que confundia a palavra “gay” com “fadinha”.
As fórmulas por detrás destes algoritmos são alteradas centenas de vezes por anos (o do Google, por exemplo, varia entre 500 e 600 vezes). “É impossível ter respostas certas sobre o que influencia estes algoritmos e os humanos que os constroem quando o tema não está sujeito a discussão, excepto quando o criticamos,” critica a norte-americana Satya Noble uma investigadora em Estudos Étnicos e de Género que publicou recentemente um livro sobre o potencial destas tecnologias para oprimir determinados grupos de pessoas.
“No final do dia, é preciso lembrar que a inteligência artificial é uma ferramenta para os humanos. Não o contrário. E ainda está a ser desenvolvida”, ressalva David Heiner, da Microsoft. É parte do motivo por detrás do investimento em sistemas como a Zo. Falar com estas assistentes não resolve problemas, nem dá respostas precisas. “Dão confiança às pessoas para partilhar informação que não partilham com ninguém. O propósito aqui é mostrar ao humano que a inteligência artificial os está a ouvir”, diz Ying Wang, a responsável pela Zo. Nos EUA, a conversa mais longa de um utilizador com este programa de computador já ultrapassou as 20 horas, com algumas pausas pelo meio. A média de duração das conversas é de 34 minutos.

O PÚBLICO viajou a convite da Microsoft.

sexta-feira, 20 de outubro de 2017

A Implicação

Por que razão a implicação material apresenta como valor lógico a verdade, ainda que o valor lógico das suas proposições seja falso?

P
Q
P → Q
V
V
V
V
F
F
F
V
V
F
F
V






No argumento dedutivo, a verdade das premissas impõem necessariamente a verdade da conclusão. Ora, isto é evidente na implicação. Veja-se a 1.ª linha e a 2.ª linha.
A 2.ª linha mostra a impossibilidade lógica presente num argumento dedutivo.

Exemplo de um modus ponens e de uma falácia da negação do antecedente:

P
Q
P → Q
P
Logo, Q
V
V
V
V
V
V
F
F
V
F
F
V
V
F
V
F
F
V
F
F
P
Q
P → Q
não P
Logo, não Q
V
V
V
F
F
V
F
F
F
V
F
V
V
V
F
F
F
V
V
V







A verdade impõe a verdade, mas a falsidade nada impõe. Isto é, a verdade do antecedente impõe que o consequente seja verdadeiro. Mas quando o antecedente não se  realiza, quando é falso, o consequente pode ou não acontecer, pode ou não ser verdade.

Exemplo:
Se fizer sol, Ípsilon vai à praia.
Haver sol, impõe que se conclua que Ípsilon foi à praia.
Mas, o facto de não haver sol, não permite afirmar que Ípsilon vá à praia, nem que não vá à praia.

A conclusão precipitada forma uma falácia.

Porque existem falácias na disjunção inclusiva e não na disjunção exclusiva?

A disjunção exclusiva tem a forma «ou P ou Q». O seu símbolo é V
Exemplos de expressões: O conhecimento é possível ou o conhecimento não é possível.
Numa disjunção exclusiva a falsidade só ocorre quando ambas as proposições são falsas.
P
Q
P Ú Q
V
V
F
V
F
V
F
V
V
F
F
F






               
A disjunção inclusiva tem a forma «P ou Q». O seu símbolo é Ú
Exemplo: Platão foi filósofo ou escritor
Numa disjunção inclusiva a verdade é uma propriedade da proposição complexa se uma das frases for falsa.

P
Q
P Ú Q
V
V
V
V
F
V
F
V
V
F
F
F






No bar da escola, o funcionário pergunta: Quer pão com queijo e/ou pão com fiambre?
Ipsílon responde: tanto faz.
Neste caso, são verdadeiras as proposições:
- pão com queijo;
- pão com fiambre;
- pão com queijo e fiambre.
Se a resposta do funcionário for trazer um Pão com marmelada as anteriores proposições são falsas – esta proposição torna as outras 3 proposições falsas.

Mas supondo que
o funcionário perguntar: Quer pão ou com queijo ou pão com fiambre?
 Ipsílon responde: tanto faz.
Neste caso a verdade está quando o pão tem fiambre e também quando o pão tem queijo. Mas o pão não pode ser misto e não pode trazer marmelada.
Se trouxer marmelada nenhuma das proposições simples é verdadeira e a proposição composta é falsa. Se trouxer um pão misto ambas as proposições simples são verdadeiras e o valor de verdade da proposição composta ´e falsa.



No caso da disjunção exclusiva, a afirmação de uma proposição impõe necessariamente a negação da outra, e vice-versa (como a falsidade de uma impõe a verdade da outra) - uma vez que não só uma é possível.
Assim, podemos ir da afirmativa para a negativa e da negativa para a afirmativa. Ou seja podemos ir do falso para o verdadeiro e do verdadeiro para o falso.
Mas isto não ocorre na disjunção inclusiva.
Aqui, da verdade de uma proposição não podemos concluir a falsidade da outra, nem a sua verdade – pois o valor de verdade que impõe o conetor é o da verdade da proposição composta se ambas forem verdadeiras ou uma for verdadeira e a outra falsa.
A piada está em podemos afirmar a verdade de uma proposição a partir da negação da outra. Ou seja, podemos a partir do falso o verdadeiro.

Vejamos um argumento falacioso. P ou Q; P; Logo, Q

P
Q
P Ú Q
P
Q
V
V
V
V
V
V
F
V
V
F
F
V
V
F
V
F
F
F
F
F






Relembrando que um argumento dedutivo é aquele que da verdade das premissas se garante a verdade da conclusão, constatamos que é um argumento IMPOSSÍVEL – É O TAL ARGUMENTO QUE MOSTRA A INVALIDADE DO ARGUMENTO DEDUTIVO, POIS VERIFICAMOS QUE EXISTE A POSSIBILIDADE DO IMPOSSÍVEL – O QUE É UMA CONTRADIÇÃO.

Mas a partir da negativa já é possível:

P
Q
P Ú Q
~P
Q
V
V
V
F
V
V
F
V
F
F
F
V
V
V
V
F
F
F
V
F