Translate

24.11.13

27/11 - Abílio Rodrigues


Adversus dialetheicus: Sobre uma interpretação intuitiva para as
semânticas de valorações das Lógicas da Inconsistência Formal

Abílio Rodrigues
Departamento de Filosofia, UFMG

(Trabalho conjunto com Walter Carnielli)


Para mostrar que uma justificativa filosófica para lógicas paraconsistentes não depende da tese dialeteísta segundo a qual existem contradições verdadeiras é importante apresentar uma interpretação intuitiva e filosoficamente motivada para a aceitação de contradições em uma teoria cuja lógica subjacente seja paraconsistente. Partindo da ideia de que a presença de um par de sentenças A e ~A indica um excesso de informação, que por princípio deveria ser posteriormente eliminado, examinamos em que medida a semântica de valorações para Lógicas da Inconsistência Formal são apropriadas para expressar os significados intuitivos dos operadores de negação e consistência da seguinte forma:

v(A) = 1 significa que existe evidência de que A é o caso

v(A) = 0 significa que existe evidência de que A não é o caso

v(oA) = 1 significa que o valor de verdade de A foi conclusivamente estabelecido

Veremos que a lógica mbC pode ser modificada de modo a expressar de modo mais adequado a interpretação acima. Em particular, analisaremos a sintaxe e semântica do sistema de lógica sentencial obtido pela retirada da Lei de Dummett A v A -> B de mbC, que chamamos de Lógica Básica da Consistência (LBC). BLC modifica o critério proposto por Newton da Costa segundo o qual uma lógica paraconsistente deve ter tudo o que pode ser adicionado de modo que explosão e não contradição não possam ser demonstrados. Diferentemente, BLC tem o mínimo necessário para restaurar a lógica clássica para fórmulas
consistentes.

Apesar de ser mais fiel à interpretação acima do que mbC, alguns problemas permanecem, em especial a falha do teorema da substituição, que produz resultados contraintuitivos. Pretendemos também discutir
maneiras de contornar esse problema, como também de que modo BLC poderia ser modificada de modo a melhor expressar a interpretação intuitiva acima apresentada.




5.11.13

06/11 - Maria Inés Corbalán


Déficit de recursos no cálculo resource-conscious de Lambek



    A gramática categorial ou gramática de tipos lógicos é uma gramática formal baseada no cálculo lógico proposto por J. Lambek. O cálculo L de Lambek é uma lógica subestrutural vinculada, via o isomorfismo de Curry-Howard, com o λ-cálculo. Em termos de teoria da prova à la Gentzen, o cálculo L carece de quaisquer regras estruturais. A lógica de Lambek é uma lógica resource-conscious. Em termos do λ-cálculo, L carece das operações de abstração vazia e de abstração múltipla. 
    Diversos fenômenos linguísticos presentes na linguagem natural em geral e em diferentes línguas particulares propiciaram a extensão do cálculo de Lambek, originando uma ampla variedade de cálculos dedutivos subestruturais.
    Em particular, extensões de L foram propostas para enfrentar problemas de déficit de recursos. O fenômeno da referência anafórica representa um desafio para uma gramática formal subestrutural que não admita a reutilização de recursos lexicais.
    As estruturas gramaticais chamadas de estruturas de controle não representam, em geral, um contexto de aparição do fenômeno de referência anafórica, quando analisadas em termos da gramática categorial e da teoria semântica da propriedade. Pelo fato de o controle ser um fenômeno independente da anáfora, os estudos sobre resolução da anáfora usando a gramática categorial como marco teórico não contribuíram para o estudo das estruturas de controle. E, de modo análogo, os estudos sobre as estruturas de controle no marco da gramática categorial não contribuíram para a questão da reutilização de recursos levantada pelo fenômeno da anáfora e, consequentemente, não propiciaram desenvolvimentos lógicos vinculados com o cálculo L.
    No entanto, atendendo ao fenômeno empírico do controle em português, neste projeto de pesquisa faremos convergir tais âmbitos de estudo ---até hoje--- independentes no marco da gramática categorial: os estudos sobre a anáfora e os estudos sobre as estruturas de controle. Mostraremos que o particular fenômeno do controle no português apresenta um desafio para a lógica de Lambek. Procuraremos superar tal desafio usando as ferramentas lógicas propostas pela gramática categorial no estudo da anáfora, avaliando os argumentos das teorias da propriedade e da proposição confrontados nos estudos semânticos do controle, e analisando as diversas extensões lógicas do cálculo de Lambek e as suas estruturas residuais associadas.
    Consequentemente, e como resultado de nossa pesquisa, visamos obter contribuições para três contextos distintos: para a lógica ---propondo uma extensão do cálculo L e, consequentemente, ampliando o escopo empírico da lógica de Lambek; para a semântica filosófica ---estudando as Teorias da Propriedade e da Proposição; e para a linguística ---contribuindo para a discussão sobre o fenômeno do controle a partir do estudo das particulares características que esse fenômeno apresenta no português.

 Palavras-chave: Lógica subestrutural, Isomorfismo Curry-Howard, Gramática Categorial, Estruturas de Controle, Teorias da Propriedade e da Proposição.

27.10.13

30/10 - Rafael Testa

Revisão de crenças em lógicas paraconsistentes:
Novas perspectivas à justificativa coerentista?

Rafael Testa

A revisão de crenças estuda como agentes racionais mudam suas crenças ao receberem novas informações. O trabalho mais influente desta área é a teoria apresentada por Alchourrón, Gärdenfos e Makinson. Nesse trabalho, conhecido como paradigma AGM, foram definidos postulados de racionalidade para os diferentes tipos de mudança de crenças. Desde então a área de revisão de crenças foi influenciada e desenvolvida por diversas disciplinas tais como filosofia, computação e direito.
Trabalhos recentes mostram como o paradigma AGM pode ser compatível com algumas lógicas não-clássicas. Neste seminário veremos como os resultados AGM podem ser aplicados às lógicas paraconsistentes (pontualmente utilizamos como ponto de partida extensões de mbC, uma lógica da inconsistência formal). Serão expostos resultados que garantem a validade dos postulados clássicos a determinadas construções e, quando este não for o caso, diferentes postulados são propostos. Ao final analisaremos a justificativa coerentista proposta por Gärdenfos para a racionalidade dos postulados AGM e discutiremos as contribuições da perspectiva paraconsistente  a estes critérios.

Não será esperada familiaridade com a teria AGM, porém aos interessados em enriquecer a discussão final sugiro a leitura da entrada da SEP referente ao assunto:

Sobre LFIs:

22.10.13

23/10 - Pedro Lemos

SEMÂNTICAS BI-TEMPORAIS E A DEFESA ARISTOTÉLICA DA CONTINGÊNCIA DO FUTURO



Há uma posição atrativa na literatura de que a defesa aristotélica sobre a contingência do futuro, presente no capítulo IX de De Interpretatione, se assenta na permissão de lacunas de verdade (truth-value gaps), alcançada pela quebra do princípio semântico da bivalência, mesmo mantendo a validade irrestrita do princípio lógico do terceiro excluído.
Neste esteio, van Fraassen (1966) e Thomason (1970) apresentaram semânticas com supervalorações que atuam sobre modelos com valorações bivalentes clássicas, permitindo que futuros contingentes apresentem lacunas, o que em tese reflete a intenção inicial de Aristóteles em restringir o princípio de bivalência, mas não o princípio lógico do terceiro excluído, já que nestas semânticas as instâncias do terceiro excluído com futuros contingentes são sempre satisfeitas.
Partindo disto, o seminário terá como intuito explorar três tópicos. Em primeiro lugar, apresentaremos uma semântica de referência bi-temporal, capaz de variar a acessibilidade de acordo com o contexto em que uma sentença sobre o futuro é acessada, de modo que um mesmo contexto de uso é capaz de satisfazer a necessidade e a contingência de uma sentença sobre o futuro. Em segundo lugar, e tendo em tela tal semântica, iremos propor a distinção entre dois níveis semânticos na avaliação de futuros contingentes, o macro-semântico e o micro-semântico.
Por último, iremos sugerir que Aristóteles defende a contingência macro-semântica do futuro, mas não a micro-semântica. Isso explicaria porque Aristóteles defendia a contingência (ou abertura) do futuro, mesmo aceitando tácitamente princípios de cunho determinístico, como o Princípio da Plenitude e da atualização de possiblidades genuínas, que são curiosamente (e perigosamente, para um defensor do Indeterminismo e de Aristóteles) bastante próximos às premissas do mais famoso argumento para o determinismo, o Argumento do Dominador de Diodorus Cronus.


1 van Fraassen, B. (1966): Singular Terms, Truth-Value Gaps, and Free Logic. Journal of Philosophy, Vol.63, No. 17, pp.481-495.

Thomason, R. (1970): Indeterminist Time and Truth-Value Gaps. Theoria, Vol. 36, I. 3, pp.264-281.

15.10.13

28.9.13

Cronograma do Semestre (Atualizado)


07/08 - Marcelo Samuel Berman
14/08 - Não haverá seminário (VII Simpósio Internacional Principia)

21/08 - Não haverá seminário (Reunião de departamento)

28/08 - Tony Marmo

04/09 - Rodolfo C. Ertola Biraben

11/09 - Não haverá seminário

18/09 - Felipe Ferrari Gonçalves

25/09 - Mariana Matulovic

02/10 - Não haverá seminário

09/10 - Não haverá seminário (XVII Congresso da Sociedade Interamericana de Filosofia)

16/10 - Não haverá seminário (Reunião de Departamento)

23/10 - Pedro Lemos

30/10 - Rafael Testa

06/11 - Inés Corbalán

13/11 - Não haverá seminário (Reunião de Departamento)

20/11 - Não haverá seminário (Feriado em Campinas)

27/11 - Abílio Rodrigues

23.9.13

25/09 - Mariana Matulovic


O presente trabalho tem por objetivo  explorar, em diversas vertentes, o caráter universal de uma ferramenta poderosa de prova, apta a ser utilizada em lógicas clássicas e não clássicas, em particular em lógicas multivaloradas proposicionais (determinísticas e não-determinísticas), em lógicas paraconsistentes, em lógicas modais e na Lógica de Primeira Ordem. Trata-se do Método de Prova de Anéis de Polinômios, que também pode ser considerado como uma semântica algébrica. 

O método traduz fórmulas de uma lógica específica em polinômios (em geral finitos, mas podendo ser infinitos) com coeficientes em corpos finitos, e transforma o problema de se encontrar demonstrações no correlato algébrico da busca de soluções de sistemas de equações polinomiais. Esta universalidade do método possibilita a abertura de diversas linhas de pesquisa, sendo a questão da verofuncionalidade e suas generalizações uma delas. Outras linhas de pesquisa são: possibilidades de se investigar enfoques alternativos da complexidade computacional, prova automática de teoremas, métodos heurísticos em lógica e correlações entre álgebra e lógica.

Este trabalho analisa e compara sistemas de anéis de polinômios para sistemas com verofuncionalidade generalizada, como no caso das semânticas não-determinísticas, e ainda em sistemas onde a verofuncionalidade é perdida, tais como em sistemas multivalorados reduzidos a bivalorados através da conhecida redução de Suszko. O método de anéis de polinômios, além de poderoso e elegante em sua aparente simplicidade, constitui ainda um ótimo instrumento pedagógico.

Em relação à lógica clássica, definimos um anel de polinômios para a Lógica de Primeira Ordem, fundamentado em um novo domínio que opera com somas e produtos infinitos, o qual se denomina domínio de séries generalizadas fechado por produtos.

Finalmente, procuramos avaliar todas as potencialidades do método, principalmente no aspecto inerente à questão de se poder pensar em uma característica unificadora na medida que utiliza o mesmo viés matemático para traduzir diferentes sistemas lógicos em variedades algébricas similares. Além disso , analisamos as interrelações do método com respeito a lógica algébrica (ou álgebra da lógica), e avaliamos suas perspectivas.

16.9.13

18/09 - Felipe Ferrari Gonçalves

O papel da Pura Experiência na Filosofia de Kitarō Nishida

Felipe Ferrari Gonçalves
Universidade de Nagóia


Resumo

Segundo Keiji Nishitani [西谷啓治] (1900-1990), Kitarō Nishida [西田幾多郎] (1870-1945) fora o primeiro japonês a “estabelecer a filosofia ocidental em solo japonês”. Isto é, analizar os conceitos fundamentais do pensamento ocidental sob o pano de fundo religioso e cultural do oriente de modo a buscar a compreensão intelectual entre ambos os hemisférios. A apresentação terá como objetivo uma breve apresentação acerca dos conceitos básicos da Filosofia Japonesa para, então, se dedicar à análise da pedra fundamental sobre a qual se baseia a obra máxima de Nishida, a Investigação acerca do bem [善の研究] de 1911, a saber, o conceito de Pura Experiência [純粋経験], que fora cunhado sete anos antes pelo estadunidense William James (1842-1910) nos ensaios A consciência existe? [Does Consciousness Exist?] e Um mundo de pura experiência [A World of Pure Experience].

Evento em conjunto com CAFIL-Unicamp
____

Felipe Ferrari Gonçalves


Ingresso em Filosofia pela Unicamp em 2005 e bolsista PIBIC/CNPq de 2007 a 2009 com o projeto de pesquisa Discussão acerca do conceito aristotélico de topos sob orientação da Prof. Dra. Fátima R. R. Évora. Em 2010 ingressa no mestrado na mesma universidade com o projeto Filopono de Alexandria e Galileu Galilei: a discussão acerca do movimento de queda dos corpos na mesma universidade. No mesmo ano é aprovado na Bolsa MEXT de Pesquisa em Pós-Graduação do Ministério da Ciência do Japão e, no ano seguinte, ingressa no curso de japonês para estrangeiros da Universidade de Nagóia. Em 2011 ingressa no programa de mestrado da mesma universidade sob orientação do Prof. Dr. Isamu Miyahara com o tema A influência da Filosofia Ocidental no pensamento japonês do século XX.

1.9.13

04/09 - Rodolfo C. Ertola Biraben


On Four Operations in Meet Complemented Distributive Lattices


We study operations relating to Boolean and regular elements. The corresponding connectives may be interesting for fuzzy, modal and paraconsistent logic.

10.8.13

28/08 - Tony Marmo


A Lei da Consequência Admirável do Ponto de Vista Multivalente

Apresentamos uma abordagem das tautologias clássicas (bivalentes) a partir de  lógicas com mais de dois valores, examinando alguns exemplos mais específicos, como a chamada Lei de Clávio ou da Consequência Admirável (em Latim Consequentia Mirabilis). Tratamos da noção de aceitabilidade das fórmulas, estendendo a de tautologia, considerando as famílias de sistemas Un e £n, e as relações entre implicação fraca e forte.

Cronograma Inicial do Semestre

07/08 - Marcelo Samuel Berman

14/08 - Não haverá seminário (VII Simpósio Internacional Principia)

21/08 - Não haverá seminário (Reunião de departamento)

28/08 - Tony Marmo

04/09 - Rodolfo C. Ertola Biraben

11/09 - Não haverá seminário

18/09 - Não haverá seminário (Reunião de Departamento)

25/09 - Mariana Matulovic

02/10 - Pedro Lemos

09/10 - Não haverá seminário (XVII Congresso da Sociedade Interamericana de Filosofia)

16/10 - Não haverá seminário (Reunião de Departamento)

23/10 - Inés Corbalán

30/10 - Rafael Testa

3.8.13

07/08 - Marcelo Samuel Berman

"A singularidade infinita inicial da densidade de energia do Universo não aconteceu"

Marcelo Samuel Berman

Instituto Albert Einstein/Latinamerica

Resumo:
Discute-se a tese de doutorado de Stephen Hawking, segundo a qual era inevitável a singularidade inicial infinita na densidade de energia, quer do inicio ou do final do Universo. Demonstra-se, em primeiro lugar, que a equação de Raychaudhuri apenas indica que se não houver vorticidade, se o fluido for perfeito e a constante cosmológica não contrabalançar o efeito da densidade de energia mais de três vezes a pressão cósmica, então o único que dá para descobrir é que o Universo partiu de um instante inicial com raio nulo. Entretanto, como a energia total do Universo é sempre zero -- o que foi provado por Berman em 2009 -- temos que a densidade de energia, obtida dividindo a energia total pelo volume, é também zero, incluindo-se o limite matemático de raio tendendo a zero. Estes valores são zero, se considerarmos a energia e a densidade de energia negativas, do campo gravitacional do Universo. Uma análise cuidadosa das equações de campo de Einstein, para a métrica de Robertson-Walker, confirma nosso cálculo, pelo qual a densidade de energia é zero sempre, portanto, nunca dá um valor infinito .O palestrante mostrará passo-a passo a formulação matemática desta calculeira.

25.6.13

26/06 - Dante Cardoso de Almeida


DEDUÇÃO NATURAL ROTULADA PARA LÓGICAS MODAIS E MULTIMODAIS

Dedução Natural é um sistema de prova desenvolvido independentemente por Gentzen e Jaśkowski. Caracteriza-se por conter diversas regras de inferência, em geral duas para cada operador (uma para introduzi-lo e outra para eliminá-lo) em contraste com a presença de pouquíssimos ou nenhum axioma; além do mais, caracteriza-se por conter regras de inferência hipotéticas. Assim, o sistema de Dedução Natural passou a ser reconhecido como o que mais se aproxima da forma como se raciocina em matemática.
Contudo, a despeito deste sistema de prova ser aplicado com sucesso a diversos sistemas de lógica (ex: clássica, intuicionista, minimal, algumas lógicas relevantes, alguns poucos sistemas modais etc), tem-se encontrado diversas dificuldades para aplicá-lo em diversos outros sistemas. Recentemente estas dificuldades vem sendo contornadas por autores como Simpson e Gabbay, com a adoção de sistemas de provas rotulados. Rótulos (ou etiquetas) são marcações atribuídas às formulas em um sistema de provas, geralmente expressando propriedades semânticas dessas.
Neste seminário, mostrarei como a dedução natural rotulada funciona para diversos sistemas de lógica modal e multimodal, discutirei o que ainda há para ser estudado na área e como esse sistema pode ser utilizado para formalizar raciocínios e argumentos envolvendo termos modais.  

10.6.13

12/06 - Márcio Moretto


Título: Maximalidade e Revisão em Lógicas

Resumo: A noção de maximalidade em lógica, apesar de intuitiva, é apresentada de diversas formas em diferentes artigos. Apresentaremos definições gerais de maximalidade em lógicas e relacionaremos essas noções com operações de contração, revisão e fibrilação segura em lógicas. Por fim, mostramos teoremas de representação para cada uma das operações e alguns resultados de preservação de propriedades.

05/06 - Carolina Blasio


Não tenha medo do Desconhecido

Carolina Blasio*
CLE/IFCH/Unicamp
um trabalho em conjunto com João Marcos, LoLITA & DIMAp/UFRN

Em geral as noções de consequências introduzidas tanto por meios semânticos quanto por algum formalismo dedutivo, ou mesmo, enquanto relações/operações abstratas entre (coleções de) sentenças, são frequentemente explicadas em termos de julgamentos, tais como, asserções ou refutações de sentenças por parte de agentes.  De fato, do ponto de vista semântico, tais julgamentos são com frequência identificados com valores de verdade. Nossa proposta é substituir os julgamentos dos agentes por um conjunto de atitudes cognitivas como aceitar e rejeitar uma dada informação, e organizar tais atitudes em uma estrutura de oposição da qual podemos definir uma noção de consequência semântica com quatro posições, denominada 'B-entailment', que generaliza as conhecidas abordagens de Tarski e Shoesmith & Smiley. Ao deixar de considerar os agentes como fontes comprometidas de informação para entendê-los como consultores de informação, fornecemos uma interpretação natural para os valores não-clássicos que caracterizam o 'desconhecido', por exemplo: uma sentença pode levar um agente a não ter razões para aceitá-la e nem rejeitá-la; alternativamente,  um agente pode ter razão em não aceitar uma sentença bem como razões para não rejeitá-la. Outra vantagem da noção generalizada de consequência semântica para muitos valores é que ela fornece um framework simples e interessante para a representação uniforme de muitas lógicas conhecidas.

*Bolsista CNPq de doutorado em Filososia-IFCH/UNICAMP

28.5.13

29/05 - Newton Marques Peron

MATRIZES NÃO-DETERMINÍSTICAS PARA LÓGICA MODAL

=============================================


Em 1914, Lewis propôs a hierarquia S1-S5, o que é geralmente estipulado como o primeiro trabalho em lógica modal formal. Embora Lewis tenha proposto algumas matrizes multi-valoradas para mostrar a independência de seus axiomas, em 1940 Dugundji provou que nenhum sistema entre S1 e S5 pode ser caracterizado por matrizes finitas. 



O resultado de Dugundji forçou de um lado a abordagem algébrica de McKinsey e Tarski e de outro lado o desenvolvimento da semântica relacional de Kripke. O sucesso dessa última ofuscou a semântica algébrica e abordagens ainda mais heterodoxas, como as matrizes não-determinísticas - ou Nmatrizes - de Kearns de 4 valores para os sistemas T, S4 e S5.



Antes dos primeiros trabalhos de Kripke, Lemmon havia mostrado que toda a hierarquia de Lewis podia ser formalizada em termos do operador "necessário". Mudando os operadores primitivos, Lemmon propôs outras duas hierarquias: D1-D5 e E1-E5. Ele também apresentou um sistema mais fraco que S1, a saber, S0.5.



Se substituirmos os axiomas (T) por (D) nos sistemas T e E2 nós obtemos os sistemas D e D2,  respectivamente. Seja D0.5 o sistema obtido substituindo também (T) por (D) em S0.5. Veremos que D, D2 e D0.5 são corretos e completos com relação à semântica de Nmatrizes de 6 valores.



Embora esses sistemas podem ser caracterizados por Nmatrizes de 4 e 6 valores, a noção de nível de valoração é também necessária. Ivlev explorou a axiomática de Nmatrizes de 4 valores sem essa maquinaria. Em particular, Sa+ tem as mesmas Nmatrizes de 4-valores de Kearns para T sem os níveis de valoração. Seja Dm o sistema obtido substituindo T por D em Sa+. Veremos que Dm é a contraparte axiomática das Nmatrizes de 6 valores sem níveis de valoração e que, eliminando os dois valores adicionais, obtemos exatamente as Nmatrizes de Kearns para T. 

19.5.13

22/05 - Tony Marmo


Crispness, Consistency, Necessity...

Sylvain Bromberger has proposed– in more complicate manner than it can be spelt out herein– that in order to understand rational thinking one should firstly consider how questions are selected, namely what makes them distinctive to be admissible as objects of our explanation. The distinctiveness of the questions is arguably based on cognitive constraints rather than on the nature of the subjects. If this is correct, the discovery of the logic operators, regardless of the different they belong to, traces its roots not to the subjects they may apply but to a pre-existent rationality. Thus, for instance, the difference of a crisp concept and fuzzy one is not rooted on the objects one examines, which could, by their very nature, be described fuzzily or crisply, but on the natural way the human mind deals with different objects.
Here we propose a debate on whether the different logic and philosophical notions of crispness and consistency of objects should be treated as equivalent, inasmuch as one can select roughly the same cluster of questions. Maybe crispness is more suitable to explain consistency than necessity.

Observação: O seminário será apresentado em português, se não houver convidado estrangeiro presente. 

5.5.13

08/05 - Henrique Almeida


O Teorema de Frege e a Teoria Neo-Fregiana da Aritmética

Teorema de Frege estabelece que (i) os símbolos primitivos da Aritmética de Segunda Ordem (AP2) podem ser definidos na teoria de segunda ordem cujo único axioma próprio é o Princípio de Hume (PH), denominadaAritmética de Frege (AF); e que (ii) as traduções correspondentes dos axiomas de AP2 podem ser derivadas nessa teoria.

Esse resultado foi informalmente apresentado por Frege no seu Die Grundlagen der Arithmetik (1984), §§70-83, onde ele formula definições dos conceitos aritméticos elementares em termos do operador ‘o número de ...s’, introduzido pelo Princípio de Hume, e fornece um esboço de como os axiomas de Dedekind-Peano podem ser provados a partir desse princípio sem fazer uso Axioma V. Embora já estivesse presente no Grundlagen, o Teorema de Frege somente foi explicitamente reconhecido no final do século passado: em 1983, Crispin Wright tentou reproduzir sem sucesso a derivação do paradoxo de Russell em AF e apresentou uma exposição formal detalhada das derivações dos axiomas de AP2 nessa teoria, e, em 1987,  Boolos provou a consistência da Aritmética de Frege em relação à consistência da Aritmética de Segunda Ordem.

Além de investigações formais, a redescoberta do Teorema de Frege motivou o surgimento de uma proposta de reabilitação do logicismo aritmético fregiano, na qual Bob Hale e Crispin Wright reivindicam que, para além de um resultado meramente técnico, o Teorema de Frege possui um significado filosófico fundamental para a explicação de nosso conhecimento dos axiomas e teoremas da aritmética.

Neste seminário, iremos apresentar, em termos gerais, o Teorema de Frege e as principais teses do neo-logicismo fregiano de Hale e Wright, e expor, de maneira um pouco mais detalhada, a prova da consistência da Aritmética de Frege em relação à Aritmética de Segunda Ordem formulada por Boolos.

21.4.13

24/04 - Ricardo Grande


On the mathematical discovery of new physical phenomena

The objective of this lecture is to try to develop an answer to the following question: how is it possible to physicists to preview new physical phenomena only by looking to some specific terms that lie in the mathematical formalism of some physical theory? Our starting point will be the historical analysis of the prediction of a quantum phenomenon by David Bohm and Yakir Aharonov (Bohm e Aharonov, 1959), the so called Aharonov-Bohm effect. Then we’ll discuss some aspects of the mathematical and physical foundations of quantum theory in opposition to classical theory of electromagnetism.  Finally, we are going to show our philosophical point of view about the subject. 
As it’s well known, that effect was previewed when Bohm and Aharonov suggested a special kind of interpretation to a vector function called  vector potential  that entered Schödinger equation. To understand what they had in mind, we need to look very briefly to the way potentials enter in the formulation of classical 
electrodynamics. Potentials (e.g., the vector potential) were introduced in the theory of classical electromagnetism only as a mathematical tool to compute the fields whilst the fields (solely) were the responsible for the physical effects. For instance, the electromagnetic field     was intended to be obtained by calculating the rotational of the potential, i.e.,- but in quantum mechanics, based on Aharonov and Bohm views, the potential    could have a brand new physical interpretation leading to a brand new and non-classical phenomena.  That one could be tested empirically. Its existence was empirically tested and rigorously demonstrated by Tonomura (Tonomura, 1989). Our approach will be guided by some of da Silva’s ideas (da Silva, 2010) on the foundations of mathematics we’ve been studying since our PhD work (Grande 2011) and our current studies on the philosophical aspects of the Aharonov-Bohm effect. 

BOHM, D. E AHARONOV, Y.  Significance of electromagnetic potentials in the quantum theory. Phys. Rev. 115, 485-491 (1959).
DA SILVA, J. J.“Structuralism and the applicability of mathematics”, Axiomathes 20 – 229-253 (2010).
GRANDE, R. M. A aplicabilidade da matemática à física. Tese de doutorado apresentada ao instituto de 
filosofia e ciências humanas da Unicamp, Campinas (2011).
                                                          

15.4.13

17/04 - Juan Carlos

Restricted normal modal logics and levelled possible worlds semantics

Restricted normal modal logics are defined by imposing conditions on the modal axioms and rules of normal modal systems. The conditions are defined in terms of a depth (associated with the modal connective) and a complexity function. It is proven that the logics obtained are characterized by a subtle adaptation of the  possible worlds semantics in which levels are associated with the worlds. Restricted normal modal logics constitute a general framework allowing the definition of a huge variety of modal systems, which can have different applications. For instance, they are useful to define epistemic logics where the logical omniscience problem is partially controlled.

9.4.13

10/04 - Walter Carnielli

Título: Várias semânticas para umas poucas  lógicas

Resumo:

As "semânticas de traduções possíveis" podem dar um significado semântico a vários tipos de sistemas lógicos, embora originalmente projetadas   para uma classe de lógicas paraconsistentes chamada "lógicas da inconsistência formal" (que cobre a hierarquia  de N. da Costa e diversas outras). Usando tal semântica, várias lógicas complexas podem ser   naturalmente decomponíveis (e também componíveis), por meio de combinações adequadas de  sistemas lógicos simples. Casos particulares das semânticas de traduções possíveis são as "semânticas da sociedade", as "semânticas diádicas" e   as "semânticas  não-determinísticas". Pretendo discutir exemplos de semânticas de traduções possíveis  e algumas relações entre estas e semânticas conhecidas  para  LP (Priest), K3 (Kleene) e FDE (Anderson & Belnap), com vistas a um entendimento mais profundo de  uma abordagem semântica  unificada.

11.3.13

13/03 - Samir Gorsky


Título: A Lógica e a Metafísica dos Enigmas: Surpresa, Espanto e Informação. 


Resumo: O presente trabalho tem por objetivo avaliar o papel do estudo sistemático da surpresa, do espanto, da admiração e dos enigmas para a teoria do conhecimento e, em termos mais gerais, para filosofia. Tal estudo envolve ainda conceitos filosóficos importantes tais como os de informação, jogo, problema, raciocínio, conhecimento e ignorância. As análises lógica e filosófica que enfocam a teoria da informação serão baseadas, em princípio, nos trabalhos de Yehoshua Bar-Hillel, Rudolf Carnap e Jaakko Hintika (Carnap; Bar-Hillel, 1952), (Carnap; Bar-Hillel, 1953) e (Hintikka. 1970) sobre a semântica da informação e no texto de Walter Carnielli, Marcelo E. Coniglio e João Marcos (Carnielli et al., 2007) sobre lógicas da inconsistência formal. Neste âmbito, tem-se como meta identificar o espectro lógico subjacente a um cenário informativo arbitrário. A partir disso, propomos uma teoria semântica da informação tendo em conta constituintes não-clássicos. Investigamos a ideia de que algumas partes da teoria dos enigmas e da noção formal de surpresa são instâncias da teoria dos jogos sobre cenários não-clássicos, a relevância de tal estudo para a filosofia e, em particular, para a teoria do conhecimento.

2.3.13

06/03 - Maíra Bittencourt

Aspectos filosóficos de processos de decisão que envolvem probabilidade: teste de hipóteses, modelos econométricos e teoria bayesiana da decisão



Este seminário pretende apresentar um recorte dos resultados de uma monografia defendida em dezembro de 2012, na área de estudo da filosofia da probabilidade. De modo geral, procuramos trabalhar a seguinte questão: como pode ocorrer a tomada de decisão a partir de dados estatísticos ou de atribuições de probabilidades a eventos? O seminário será dividido em quatro partes. A primeira parte será uma exposição das questões filosóficas que os testes de hipóteses e os modelos econométricos podem apresentar. Em seguida serão apresentados brevemente os fundamentos de duas teorias da probabilidade: a teoria frequentista e a teoria subjetiva. A terceira parte tratará da Teoria Bayesiana da Decisão, que é uma teoria de agência racional que utiliza a probabilidade subjetiva para o cálculo da utilidade esperada. Por fim, as considerações finais visam formular algumas questões filosóficas pertinentes aos problemas citados anteriormente, além de fornecer algumas indicações bibliográficas.

28.2.13

Cronograma do Primeiro Semestre 2013


06/03 - Maíra Bittencourt

13/03 - Samir Gorsky

20/03 - Reunião de Departamento

27/03 - Não haverá seminário - X Seminário Nacional
de História da Matemática

03/04 - Não haverá seminário - Uni-Log

10/04 - Walter Carnielli

17/04 - Juan Carlos

24/04 - Ricardo Grande

01/05 - Feriado

08/05 - Henrique Almeida

15/05 - Reunião de Departamento

22/05 - Tony Marmo

29/05 - Newton Marques Peron

05/06 - Carolina Blasio

12/06 - Márcio Moretto

19/06 - Reunião de Departamento

26/06 - Dante Cardoso de Almeida