Sofia Oliveira on Mon, 2 Oct 2017 22:08:10 +0200 (CEST)


[Date Prev] [Date Next] [Thread Prev] [Thread Next] [Date Index] [Thread Index]

<nettime-ann> Human Entities 2017, Conversa 1/Talk 1 – Adrian Currie


.
Title: Human Entities 2017, Conversa 1 – Adrian Currie

Human Entities: a
                                              cultura na era da
                                              inteligência artificial

Human Entities: a cultura na era da inteligência artificial
Outubro – novembro, 2017
Organização CADA em parceria com a Trienal de Arquitectura de Lisboa
[English below]

Entrada livre

Human Entities é um ciclo de conversas públicas focado na mudança tecnológica e nos seus impactos – nas formas como a tecnologia e a cultura se influenciam mutuamente.

Quarta-feira 4 de outubro, 18.30h

Porque importam as histórias: narrativas sobre inteligência artificial, risco existencial, e ciência
Adrian Currie
(NZ/UK)
The Centre for the Study of Existential Risk, University of Cambridge, UK

Quero falar sobre a forma como as histórias – narrativas – sobre tecnologias emergentes, como a inteligência artificial, afectam o modo como estas são recebidas fora da ciência, e como são desenvolvidas dentro da ciência.

O nosso poder tecnológico está a aumentar a um ritmo tal que a nossa capacidade para o controlar e compreender tem dificuldades em acompanhar. Dado o poder transformativo que as tecnologias emergentes provavelmente terão para a sociedade humana, considerar os possíveis futuros que estas nos trarão, é crucial.

A minha abordagem a esta reflexão é através da discussão do risco existencial: riscos que, a acontecerem, são uma ameaça à nossa existência como espécie, ou a aspectos cruciais da civilização humana. Falarei de porque está a ciência, da forma como se organiza actualmente, mal equipada para lidar com riscos existenciais.

Em síntese, a ciência contém atributos que a tornam produtiva mas conservadora, e este conservadorismo prejudica a nossa capacidade de pensar da forma criativa e especulativa que o risco existencial requer. A partir desta discussão, falarei da importância das narrativas na nossa compreensão do risco existencial e das tecnologias emergentes, em particular a inteligência artificial. Se é verdade que as histórias que contamos sobre a tecnologia moldam o seu desenvolvimento, então se estas são escassas, ou pobres, podem deformar o progresso tecnológico e produzir problemáticos – ou desastrosos – resultados.

Sobre Adrian Currie
CSER http://cser.org

Local: Trienal de Arquitectura de Lisboa, Campo de Santa Clara, 142-145, 1100-474, Lisboa
Data: 4ª feira, 4 outubro, 2017, 18.30 – 20.30

Registo

Este evento está integrado no ciclo
Human Entities: a cultura na era da inteligência artificial
Ciclo de conversas outubro – novembro 2017

Ver programa completo


ENGLISH

Human Entities: culture in the age of artificial intelligence

October – November 2017
Organised by CADA in partnership with the Lisbon Architecture Triennale

Free entrance

Human Entities is a series of talks focused on technological change and its impacts – the ways technology and culture shape and influence each other.

Wednesday 4 October, 18.30

Why stories matter: AI narratives, existential risk, and science
Adrian Currie
(NZ/UK)
The Centre for the Study of Existential Risk, University of Cambridge, UK

I want to talk about how stories – narratives – about emerging technologies like artificial intelligence matter to both how they are received outside science, and are developed within it.

Our technological power is increasing, often leaving our ability to control and understand it struggling to keep up. Given how transformative emerging technologies are likely to be for human society, considering the possible futures they might take us down are crucial.

My way into this discussion is through existential risk: risks which, if actualized, pose a threat to our existence as a species, or to crucial aspects of human civilization. I will talk about why science, as currently organized, is ill-suited for tackling existential risks.

In brief, science has features which make it productive but conservative, and this conservatism undermines our capacity to think in the creative, speculative ways that existential risks demand. From this discussion, I’ll turn to the importance of narratives in our understanding of existential risk and emerging technologies, artificial intelligence in particular. If it is right that the stories we tell about technology shape its development, then if our stories are too few, or too impoverished, that could warp technological progress and have problematic – or disastrous – results.

About Adrian Currie
CSER http://cser.org

Venue: Lisbon Architecture Triennale, Campo Santa Clara 142-145, 1100-474 Lisbon, Portugal
Date: Wednesday 4 October 2017, 18.30 – 20.30

Register

This event is part of
Human Entities: culture in the age of artificial intelligence
Public talks October – November 2017

Read more about the programme


Organização CADA em parceria com a Trienal de Arquitectura de Lisboa | Organised by CADA in partnership with the Lisbon Architecture Triennale

cada + trienal de
                                            arquitectura de lisboa





Estrutura financiada por: | Funded by:

DGArtes





Apoio: | Supported by:
Câmara Municipal de
                                          Lisboa + NOVALINCS




Unsubscribe


-- 
CADA
www.cada1.net
R. Luz Soriano, 67, Sala 38,
1200-246 Lisbon, Portugal
Tel: (+351) 21 343 0777
Mobile: (+351) 93 447 3003 
email: sofiaoliveira@cada1.net
skype: sofia_oliveira 
Linkedin: https://pt.linkedin.com/in/sofiaoliveira 
_______________________________________________
nettime-ann mailing list
nettime-ann@nettime.org
http://www.nettime.org/cgi-bin/mailman/listinfo/nettime-ann