Novo

Intersecção entre Ciência da Computação e História?

Intersecção entre Ciência da Computação e História?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Sou um graduando em ciência da computação com grande interesse em história. Ultimamente tenho me perguntado se existem aspectos gerais ou especialidades da ciência da computação que se prestam ao estudo da história. Visto que eu provavelmente encontraria qualquer combinação de grande interesse e outras aqui também, achei que este seria um bom tópico para perguntar aqui. Não apenas existem potencialmente outras pessoas com mentalidade técnica, mas também profissionais de história que podem já estar trabalhando com tecnologia de computador, métodos e algoritmos específicos.

  • Pontos brownie para aqueles que fornecem referências específicas de tecnologia potencialmente aplicável (como algoritmos, programas, metodologia, etc.)
  • Super OMG pontos para aqueles que fornecem caminhos específicos de pesquisa que combinam o estudo da história com abordagens de disciplinas computacionais.

Tenho alguns exemplos específicos que fornecerei na seção de respostas se houver alguma confusão sobre a pergunta geral ou se as respostas não estiverem necessariamente disponíveis.

P.S. - Eu entendo que esta é uma questão que pode ser mais adequada para outro fórum (ou para dois fóruns?). Eu entendo se a comunidade achar que esta questão precisa ser migrada.


A primeira coisa que me veio à mente ao ler sua pergunta certamente foi o armazenamento e a recuperação de dados. A história geralmente é composta de muitos documentos. Os bancos de dados podem ser extremamente úteis para armazenar, acessar e fazer referência cruzada de grandes pilhas de dados (históricos), e algoritmos complexos podem ser usados ​​para analisar esses dados. A análise do computador também pode ser muito útil na decodificação de linguagens e sistemas de escrita esquecidos.

Outra aplicação comum são os algoritmos que ajudam os arqueólogos a fazer seu trabalho. Por exemplo, algoritmos são usados ​​para analisar imagens de satélite para identificar locais prováveis ​​para encontrar artefatos (os restos de antigos assentamentos são geralmente pequenas colinas) ou criar modelos 3D de assentamentos, palácios e templos. (Ao contrário da crença popular, a arqueologia não lida apenas com a pré-história, mas também em encontrar provas do que pode ser encontrado em textos antigos.)

Uma aplicação bastante ousada é a extrapolação do futuro a partir da história. Meadows / Meadows / Randers / Behrens fizeram isso no Clube de Roma Os limites do crescimento estudo no início dos anos 70 (e nos anos 90 com a sequela Além dos Limites):

  1. Encontre um conjunto de algoritmos que, dado um ponto de partida específico na história, modelem corretamente o desenvolvimento da terra / humanidade / indústria / o que quer que seja até o presente.
  2. Deixe o algoritmo continuar no futuro.

Os resultados são, basicamente, uma previsão do futuro, a partir da qual a humanidade poderia realizar ações corretivas.


Como observou o sbi, os bancos de dados relacionais podem ser usados ​​para analisar dados históricos. Um exemplo específico vem da obra acadêmica The First Crusaders, 1095-1131, do renomado estudioso das cruzadas Jonathan Riley-Smith. Este livro enfoca o estudo da primeira geração de cruzados. Na introdução, Riley-Smith explica como ele usou um banco de dados Oracle para armazenar informações básicas sobre homens e mulheres associados a cruzadas, peregrinações e assentamentos na Terra Santa durante este período. O sistema proporcionou uma forma de produzir árvores genealógicas, identificar pontos de contato entre grupos de pessoas e identificar tendências nos dados.

Além de bancos de dados relacionais, história e ciência da computação podem se cruzar no entretenimento, como videogames históricos. Muitos jogos acontecem em um cenário histórico e o conhecimento histórico seria útil para a produção de tais jogos. Alguns jogos, como The Falklands War 1982, claramente tentam fazer da precisão histórica um de seus argumentos de venda.


Embora eu não seja um especialista na área, entendo que não seríamos capazes de alcançar muitos dos Manuscritos do Mar Morto sem o processamento moderno de imagens. (E na ausência de digitalização, os documentos estariam disponíveis para um muito menor grupo de acadêmicos).

E apenas o processamento recente de imagens revelou o segredo da mancha do sujeito, que é uma espécie de visão clara dos pensamentos de Jefferson durante o rascunho da Declaração de Independência.

É claro que não saberíamos que havíamos encontrado Ricardo III sem a comparação de DNA facilitada por computador.

Os computadores foram usados ​​na análise bayseiana dos documentos federalistas para determinar a autoria. Segunda fonte com mais detalhes. Este foi um esforço inicial, então o esforço foi combinado digital / manual; esforços subsequentes usaram muito mais técnicas digitais. Isso pode se encaixar na sua categoria "super OMG".


É uma questão fascinante. Uma das maiores contribuições da ciência da computação para o estudo da história é o fato de que as pessoas criaram a ciência da computação, que é baseada na lógica. Há um longo processo entre a invenção da lógica e sua codificação no reino físico por meio da lógica da máquina. Esse fato ilumina sua busca por um algoritmo.

Suponho que você esperaria encontrar algo significativo em tal empreendimento. Talvez você pense que, se conseguisse encontrar esses algoritmos, "a humanidade poderia realizar ações corretivas", como diz em sua resposta aceita. Essas 'ações corretivas' podem ter efeitos profundos na história. Pode ser esse o objetivo da sua pesquisa?

Mas o que você procura nega e elimina o próprio propósito de sua pesquisa.

Há um erro lógico no propósito de sua pesquisa, porque os algoritmos de computador que você pesquisa não seriam capazes de explicar o fato de que as ações do homem são intencional. Na verdade, tal propósito iria 'quebrar' o seu algoritmo.

Imagine seu algoritmo tentando explicar o fato de que você pensou que poderia encontrar um algoritmo da história, pensou que o tinha encontrado e, então, realizou uma "ação corretiva". Então imagine que existem milhões de outras pessoas, com milhões de outras ideias ainda mais selvagens, também tentando realizar ações corretivas usando seu próprio computador ou outros tipos de algoritmos.

Para uma análise mais aprofundada deste problema fascinante, você provavelmente deve ler "Teoria e História", de Ludwig von Mises: http://mises.org/th.asp. É uma teoria da história que inclui o fato de que, quando agimos, agimos com um propósito, e é por isso que você está fazendo a pergunta em primeiro lugar.


Tentativas de produzir história quantitativa, isto é, cliometria dentro da história econômica; pode fazer mais demandas computacionalmente intensas do que a interpretação de texto tradicional. Esse tipo de história econômica não é visto como um elemento central da disciplina. Os requisitos computacionais são provavelmente enfadonhos do ponto de vista teórico; e replicação de uma perspectiva aplicada.

Em relação à história por história, os historiadores regularmente requerem o serviço de profissionais da informação:

  • Bibliotecários
  • Curadores
  • Arquivistas
  • Oficiais de registros

provavelmente podemos adicionar alguns aqui,

  • Arquitetos de banco de dados
  • Analistas de estrutura de dados
  • Teóricos OCR
  • Analistas semânticos
  • Designers de codificação e análise GIS

Mas isso é muito mais uma relação de serviço, com a profissão de cientistas da computação semanticamente orientados atendendo às necessidades dos historiadores, assim como os arquivistas atendem às necessidades dos historiadores, mas são uma profissão em si mesmos.

Obviamente, resolver a IA resolverá a história - se a IA for mais barata do que treinar historiadores. Mas esse não é realmente um "problema" específico da história; é a implementação específica de um problema geral.

Podemos reverter isso - os historiadores bem poderiam servir à ciência da computação por meio de uma análise da conduta e do engajamento da disciplina. Eu li uma monografia decente sobre escala e ondas de financiamento e o desenvolvimento de vários tipos distintos de empresa de computação. Isso sugere que os modelos antigos mantêm sua utilidade em domínios onde as velhas estruturas de financiamento e os velhos sistemas de problemas permanecem.

Não há espaço transdisciplinar real; mas talvez haja espaço para cooperação interdisciplinar em nível de projeto. Pelo que geralmente tenho visto do conceito de "Humanidades Digitais", parece uma arca para salvar a crítica literária da execução institucional; e os poucos historiadores que participam participam mais como profissionais da informação do que como historiadores.

ymmv.


Vou separar minha resposta em duas: história antiga e história moderna.

História antiga

Pessoalmente, acho que o campo mais interessante e muito "novo" é o uso da análise de DNA para estudar as migrações humanas antigas. Veja, por exemplo, o artigo da Wikipedia, Modelos de migração para o Novo Mundo e Eva Mitocondrial. Este campo usa informações que sobreviveram até hoje (mais ou menos como a arqueologia), mas que são muito complexas e numerosas para entender simplesmente "olhando para elas" (também há algumas aplicações em arqueologia mais diretamente, conforme discutido em uma resposta diferente aqui ) e onde não existem fontes escritas. Não sou biólogo, mas se tivesse novamente 19 anos, esse campo seria algo que eu teria considerado seriamente buscar. Pense nisso: durante a maior parte da história da humanidade, temos não escritos ou fontes - sem nomes de impérios, guerras, reis ou qualquer coisa - apenas o que podemos desenterrar, o que podemos inferir da relação de linguagem (outro campo possível! Veja lingüística computacional embora eu não saiba se esse artigo tem alguma aplicação histórica ) e da genética.

Não tenho ideia de como a pesquisa prática real funciona, mas imagino que ela deva ter muitos algoritmos e computação ... algumas referências a artigos de pesquisa estão no artigo da Wikipedia e em outros artigos vinculados a eles.

História moderna (e "moderna inicial")

Em períodos mais modernos, há muitos dados complexos e que precisam de algoritmos para fazer sentido. Este não é o caso apenas nas últimas décadas; Os dados do censo estão disponíveis para alguns países pelo menos desde meados de 1800 e, em grande parte, já foram digitalizados. Veja, por exemplo, os conjuntos de dados em http://www.ipums.org/. Para períodos mais recentes, a maioria dos aspectos da história econômica pode envolver algum tipo de cálculo, em particular se houver muitos dados. Pesquise "cliometria", "econometria" no Google e analise a história econômica em geral. Muito disso pode ser mais estatísticas do que ciência da computação, no entanto.


Eu tenho graduação em Informática e Ciências Cognitivas (que é uma mistura de ciências, mas tradicionalmente ainda não a "faculdade de história"). Tive essa discussão há 15 anos com pessoas da faculdade de história e a primeira coisa que penso é, claro, Asimov e Harry Seldon)

Eu li isso como "podemos puxar o corpo docente de história em ciências cognitivas"

Acho que é porque apenas "história pura + isso" resultará em respostas como acima "encontrar algoritmos em dados", que serão de menor utilidade. Portanto, o que está faltando é o próprio humano, conforme indicado acima.

Felizmente, temos um terço do lote de ciências: as ciências do comportamento social junto com a neurofísica, que cada vez mais concluem que por trás da complexidade dos humanos existe realmente um sistema e possivelmente apenas um sistema e nenhum "algo estranho indeterminado anexado".

Portanto, suspeito agora que as "ciências das redes sociais" estão se tornando mais maduras (por exemplo, como a comunicação flui em uma rede, como as redes humanas funcionam) e se podemos analisar as redes humanas e como as informações e os memes fluem entre os humanos com base em arquivos de dados como por exemplo http://kranten.kb.nl/ (todos os jornais desde 1616) (*) onde correlacionamos o comportamento humano e o comportamento de grupo (o último mais simples do que 1 humano) ao fluxo de informações entre humanos dentro de um determinado contexto cultural que faremos alguns passos agradáveis.

Também concordo que não será uma ciência que influenciará, uma vez que esses comportamentos de grupo são difíceis de controlar. No entanto, analisar e prever o comportamento de grupos humanos com base em material histórico e encontrar novos padrões de história social parece um próximo passo bastante lógico.

(portanto, resumo: inclua especialmente as faculdades de ciências comportamentais, incluindo ciências cognitivas e as novas ciências de redes sociais para criar esta nova ciência).

Onde em algum lugar no final desta discussão a discussão do "livre arbítrio" ocorre (mas provavelmente essa é a chave para todos os departamentos de ciência comportamental) (e sim clichê)

(*) Suspeito que precisamos de frases e palavras de pessoas usadas em diferentes tipos de grupos que levam ao comportamento de grupo, conforme encontrado em entrevistas e reportagens de jornais. Acho que arquivos de dados com dados estatísticos puros têm menos utilidade. (mas obviamente incluindo contexto cultural, DNA, matemática, algoritmos de TI e muitas outras ciências combinadas, embora os humanos sejam essenciais) ou como Asimov / Harry Seldon colocou: Psico-história.


É um pouco surpreendente para mim que o que eu acho atualmente a exemplo relevante não foi mencionado até agora (isso pode ser devido ao fato de que o que foi chamado de "avanço" na imprensa aconteceu bem depois do OP):

  • lendo os papiros de Herculano.

Não será possível resumir o assunto em detalhes, mas acho que é altamente relevante para o OP. Muito resumidamente: os papiros são muitos, muitos deles enrolados com força, muitos deles carbonizados ou deteriorados, mas a ciência da computação pode ajudar a lê-los. E ainda há muito a fazer. Acabei de citar o artigo atual da Wikipedia:

Em setembro de 2016, um método pioneiro do cientista da computação da Universidade de Kentucky W. Brent Seales foi usado com sucesso para desbloquear o texto de um pergaminho carbonizado encontrado na costa oeste do Mar Morto. [18] De acordo com especialistas, este novo método desenvolvido pelo Dr. Seales pode tornar possível a leitura dos rolos carbonizados de Herculano. [18]


desculpe pelo meu pobre inglês. Também tenho pesquisado aplicativos de computador na história, em particular. Eu li muitos jornais e alguns livros sobre. Recentemente, para sitematizar esse material, sob um critério histórico (ou seja,), organize o material de forma a documentar as aplicações computacionais na história através do tempo. O primeiro trabalho que coletei foi o trabalho de autoria de Edward Porter "The Computer and Historian" (1971). Porter descreve algumas dicas (obviamente desatualizadas) para aplicar no tratamento de fontes históricas. Posteriormente, ele descreve algumas aplicações. Na década de 70, a revista "Métodos Históricos" reunia aplicações de softwares de computador e técnicas quantitativas. Em meados dos anos 90, a Association for History and Computing publicou um boletim informativo e uma série de parpar no mesmo espírito. Os jornais ainda estão online. Recentemente, os aplicativos de computação foram abrangidos pelo termo "Humanidades Digitais", abrangendo aplicativos muito além do desenvolvimento de banco de dados. Em 2013, a Universidade de São Paulo USP patrocinou um seminário internacional sobre Humanidades Digitais. Espero que ajude você. PS. Atualmente estou trabalhando em um projeto de digitação de fontes históricas no Brasil.


O uso de técnicas de imaginação para revelar o códice perdido de Arquimedes sob o texto escrito muito mais tarde a partir dele é IMHO um bom exemplo de como os computadores podem ajudar os historiadores.


Agentes inteligentes e modelagem da sociedade. Como um nerd de história e programador, esse é o tipo de coisa que me fascina.

alguns links para pelo menos resumos para dar a idéia de alguns projetos nesta área.

http://jasss.soc.surrey.ac.uk/16/4/11.html

https://ddd.uab.cat/record/127995

http://ieeexplore.ieee.org/document/4740679/

https://link.springer.com/chapter/10.1007/978-90-481-8927-4_5

https://link.springer.com/chapter/10.1007/978-90-481-8927-4_16

https://link.springer.com/chapter/10.1007/978-3-319-14627-0_11


Por que a ciência da computação precisa das ciências humanas

As humanidades estão sob ataque. Os administradores da universidade estão de olho nas matrículas e nos lucrativos fluxos de financiamento de seus campi de engenharia, enquanto os pais conduzem seus filhos a empregos de alta remuneração em tecnologia que a imprensa apregoa como a passagem de hoje para uma carreira estável. Em quase todos os cursos de humanidades, o número de matrículas tem caído vertiginosamente. No entanto, à medida que os alunos migram para carreiras STEM, como ciência da computação, eles estão perdendo o fundamento que as humanidades fornecem para ajudá-los a compreender seu papel na sociedade e o impacto que suas criações têm na formação e na formação dessa sociedade. Olhando mais de perto, muitas das questões mais existenciais de hoje sobre o futuro do nosso mundo digital têm suas raízes no declínio da perspectiva das humanidades nas disciplinas técnicas.

É uma coincidência fascinante que o estado da vigilância digital tenha ganhado destaque durante um período de declínio significativo nas matrículas em humanidades. Os alunos de ciência da computação de hoje estão passando seus anos de formação universitária em uma câmara de eco cada vez mais isolada que enfatiza a capacidade sobre a privacidade, a noção do que "poderia" ser feito sobre o que "deveria" ser feito. Os dados são o novo petróleo, o caminho para a riqueza pavimentado com as informações pessoais de outros desumanizados em meros “dados” e analisados ​​de longe, o mal que lhes foi feito mero dano colateral na busca de fama, fortuna e glória.

Para o estudante de engenharia de um século atrás, um foco tão isolado e obstinado em STEM seria impensável. Estudantes de engenharia nas melhores universidades do país receberam uma rica formação em ciências humanas para contextualizar seus novos conhecimentos de engenharia. Como seus colegas não STEM, os engenheiros aprenderam línguas clássicas, mergulharam na história, exploraram o mundo além de suas próprias portas e cultura além da sua, aprenderam a se comunicar por meio da oratória e da literatura, argumentaram filosofia, experimentaram as artes, abraçaram a antropologia, mergulharam em arqueologia e até mesmo tocou em direito e política. Os currículos dos estudantes de ciências e engenharia do final de 1800 nas principais instituições de pesquisa dos Estados Unidos podem parecer incompreensíveis para um estudante de hoje, mas refletem a profunda compreensão da época da importância das humanidades para o funcionamento de uma sociedade saudável.

Os engenheiros não eram apenas “construtores” que criavam coisas isoladamente. Eles eram membros da sociedade construindo coisas a serviço dessa sociedade e cujas criações impactaram essa sociedade. A perspectiva das humanidades foi vista para ajudar esses engenheiros a compreender a sociedade em que existiam e seu próprio papel nessa sociedade para ajudá-los a servir melhor a sua sociedade e a se comunicar e se envolver melhor com o resto da sociedade.

Hoje, essa compreensão holística e cooperativa do lugar das STEM na sociedade há muito se apagou da memória.Os alunos de ciência da computação de hoje ainda precisam fazer um pequeno número de cursos não técnicos, mas esta breve viagem de campo fugaz está muito longe da imersão profunda e forçada no mundo além das equações, experimentos e códigos que antes eram exigidos.

Hoje, os programadores de computador aprendem que o mundo existe para que eles moldem sua própria imagem, em vez de uma paisagem vibrante e diversa que eles simplesmente habitam. A programação não é mais vista como algo conduzido a serviço da sociedade, ela é vista como algo acima da sociedade, um papel de elite conferido o poder de determinar os resultados de todos os outros por meio de arbitragem algorítmica. Culturas, geografias, tradições e perspectivas consideradas “diferentes” devem ser suprimidas por algoritmos em uma forma de neocolonialismo baseado em tecnologia. O determinismo tecnológico reina supremo. A ideia de que a história, outras culturas ou mesmo outras disciplinas de estudo possam ter algo a oferecer é descartada de imediato. O mundo fora do código tem pouco interesse.

Essa divergência entre STEM e humanidades tem um grande custo.

A ciência da computação se concentra na redução quantitativa, simplificando a cacofonia caótica que é a vida humana na pureza das equações matemáticas. As humanidades enfatizam a exploração qualitativa dessa cacofonia em sua plenitude, aproveitando todos os seus ricos detalhes para entender o "porquê" por trás do foco da ciência da computação no "quê". Um programador constrói modelos de aprendizado profundo para combater a desinformação. Um humanista examina o que faz uma sociedade aceitar falsidades. O primeiro apenas corrige os sintomas. Este último busca a cura da própria doença.

No final, a ciência da computação reduz o mundo a números. As humanidades nos ensinam o quanto esses números falham em capturar. Talvez se os cientistas da computação levantassem os olhos de suas telas de código, pudessem ver o vasto e diversificado mundo ao seu redor e mais uma vez entender por que as ciências humanas são cada vez mais importantes em um mundo cada vez mais definido pelo código.


Conteúdo

A primeira unidade de disco, o armazenamento em disco IBM 350 de 1957 tinha dez setores de 100 caracteres por trilha, cada caractere tinha seis bits e incluía um bit de paridade. O número de setores por trilha era idêntico em todas as superfícies de gravação. Não houve registro de campo identificador (ID) associado a cada setor. [3]

O armazenamento em disco IBM 1301 de 1961 introduziu setores de comprimento variável, chamados de registros pela IBM, e adicionou a cada registro um campo de endereço de registro separado dos dados em um registro (setor). [4] [5] Todos os drives de disco modernos têm campos de endereço de setor, chamados campos de ID, separados dos dados em um setor.

Também em 1961, Bryant com sua série 4000 introduziu o conceito de gravação zoneada, que permitia que o número de setores por trilha variasse em função do diâmetro da trilha - há mais setores em uma trilha externa do que em uma interna. [6] Isso se tornou uma prática da indústria na década de 1990 e é o padrão hoje.

Os drives de disco anunciados com o IBM System / 360 em 1964 detectaram erros em todos os campos de seus setores (registros) com uma verificação de redundância cíclica (CRC) substituindo a detecção de paridade por caractere das gerações anteriores. Os setores (registros) da IBM, neste momento, adicionaram um terceiro campo ao setor físico, um campo-chave para auxiliar na busca de dados. Esses setores físicos da IBM, chamados de registros, têm três partes básicas: um campo Contagem que atua como um campo de ID, um campo Chave não presente na maioria dos setores da unidade de disco e um campo Dados, freqüentemente chamado de formato CKD para um registro.

O armazenamento em disco IBM 3330 de 1970 substituiu o CRC no campo de dados de cada setor por um código de correção de erros (ECC) para melhorar a integridade dos dados, detectando a maioria dos erros e permitindo a correção de muitos erros. [7] Em última análise, todos os campos dos setores do disco tinham ECCs.

Antes da década de 1980, havia pouca padronização de tamanhos de setor. As unidades de disco tinham um número máximo de bits por trilha e vários fabricantes de sistema subdividiam a trilha em diferentes tamanhos de setor para se adequar a seus sistemas operacionais e aplicativos. A popularidade do PC no início da década de 1980 e o advento da interface IDE no final da década de 1980 fez com que um setor de 512 bytes se tornasse um tamanho de setor padrão da indústria para HDDs e dispositivos de armazenamento semelhantes.

Na década de 1970, a IBM adicionou Dispositivos de Armazenamento de Acesso Direto (FBA DASDs) de arquitetura de bloco fixo à sua linha de DASD CKD. O CKD DASD oferece suporte a vários setores de comprimento variável, enquanto o IBM FBA DASD oferece suporte a tamanhos de setor de 512, 1024, 2048 ou 4096 bytes.

Em 2000, a organização comercial da indústria, Associação internacional de equipamentos e materiais para unidades de disco (IDEMA) começou a trabalhar para definir a implementação e os padrões que governariam os formatos de tamanho de setor que excediam 512 bytes para acomodar futuros aumentos nas capacidades de armazenamento de dados. [8] No final de 2007, em antecipação a um futuro padrão IDEMA, a Samsung e a Toshiba começaram as remessas de unidades de disco rígido de 1,8 polegadas com setores de 4096 bytes. Em 2010, a IDEMA completou o padrão de Formato Avançado para unidades de 4096 setores, [8] definindo a data para a transição dos setores de 512 para 4096 bytes como janeiro de 2011 para todos os fabricantes, [9] e as unidades de Formato Avançado logo se tornaram predominantes.

Embora setor signifique especificamente a área do disco físico, o termo bloquear foi usado vagamente para se referir a um pequeno bloco de dados. Bloco tem vários significados dependendo do contexto. No contexto do armazenamento de dados, um bloco do sistema de arquivos é uma abstração sobre os setores do disco, possivelmente abrangendo vários setores. Em outros contextos, pode ser uma unidade de um fluxo de dados ou uma unidade de operação de um utilitário. [10] Por exemplo, o programa Unix dd permite definir o tamanho do bloco a ser usado durante a execução com o parâmetro bs = bytes. Isso especifica o tamanho dos blocos de dados conforme entregues pelo dd e não está relacionado a setores ou blocos do sistema de arquivos.

No Linux, o tamanho do setor do disco pode ser determinado com fdisk -l | grep "Tamanho do setor" e tamanho do bloco podem ser determinados com blockdev --getbsz / dev / sda. [11]

Se um setor for definido como a interseção entre um raio e uma trilha, como era o caso dos primeiros discos rígidos e da maioria dos disquetes, os setores na parte externa do disco são fisicamente mais longos do que aqueles próximos ao fuso. Como cada setor ainda contém o mesmo número de bytes, os setores externos têm densidade de bits menor do que os internos, o que é um uso ineficiente da superfície magnética. A solução é a gravação de bits de zona, em que o disco é dividido em zonas, cada uma abrangendo um pequeno número de trilhas contíguas. Cada zona é então dividida em setores, de modo que cada setor tenha um tamanho físico semelhante. Como as zonas externas têm uma circunferência maior do que as zonas internas, são alocados mais setores. Isso é conhecido como gravação de bits zoneados. [12]

Uma consequência da gravação de bits de zona é que as leituras e gravações contíguas são visivelmente mais rápidas nas trilhas externas (correspondendo aos endereços de bloco mais baixos) do que nas trilhas internas, pois mais bits passam sob a cabeça com cada rotação, essa diferença pode ser 25% ou mais.

Em 1998, o tamanho do setor tradicional de 512 bytes foi identificado como um impedimento para aumentar a capacidade que, na época, estava crescendo a uma taxa que ultrapassava a Lei de Moore. O aumento do comprimento do campo de dados por meio da implementação do Formato Avançado usando setores de 4096 bytes removeu esse impedimento, aumentou a eficiência da área de superfície de dados em cinco a treze por cento, aumentando a força do ECC que, por sua vez, permitiu maior capacidade. O formato foi padronizado por um consórcio da indústria em 2005 e, em 2011, incorporado em todos os novos produtos de todos os fabricantes de discos rígidos.


Ciência da Computação + História, BA

O Departamento de Engenharia, Computação e Ciências Matemáticas e o Departamento de História estão entusiasmados em oferecer um programa interdisciplinar inovador que permite aos alunos integrar duas áreas distintas de foco - Ciência da Computação e História (CS + História).

Materiais de arquivo de locais como os Arquivos Nacionais em Washington, D.C. e depositários em todo o mundo agora têm coleções disponíveis para o público em geral graças aos avanços da tecnologia. Mapas, que são essenciais para o estudo da história, foram digitalizados para se tornarem interativos, permitindo que os indivíduos explorem as mudanças ao longo do tempo em tópicos que vão desde o crescimento e declínio populacional até o surgimento e colapso de impérios e civilizações. Os jogos digitais são maneiras excelentes para os alunos desenvolverem o “pensamento histórico”, e as editoras educacionais adicionam cada vez mais elementos digitalizados ao texto online para cursos de história.

O B.A. em CS + History irá preparar os alunos para aplicar seus conhecimentos e habilidades no desenvolvimento, implementação e uso de software e hardware de computador para explorar uma concentração em história digital. Após a graduação, os alunos serão capazes de construir e gerenciar arquivos digitais, aplicar dados e técnicas de análise textual a textos históricos e criar formas inovadoras de representar e interpretar eventos históricos.

Explorar Parcerias Existentes com Programas de Estágio

  • Museu de História da Área de Joliet
  • Naper Settlement
  • Edifício Gaylord
  • Ilha a la Cache
  • Field Museum of Natural History
  • Museu de História de Chicago
  • Museu da Primeira Divisão de Cantigny
  • Museu Helênico
  • Museu do Holocausto
  • Museu Lituano Balzekas
  • Arquivos Nacionais de Chicago
  • Arquivos do estado de Illinois

Por que Ciência da Computação + História?

A capacidade de coletar, analisar e visualizar conexões e tendências em grandes conjuntos de dados permitiu que estudiosos em todas as disciplinas obtivessem novos insights e levantassem novas questões. Além disso, toda organização possui necessidades de tecnologia da informação que requerem atenção de especialistas qualificados. Um diploma de CS + História prepara os alunos para ajudar colegas e organizações baseadas em história a investigar seus dados mais profundamente com a ajuda da tecnologia, fornecendo um caminho claro para uma carreira bem remunerada e rica em oportunidades. Obtenha mais informações visitando a postagem do blog do Dr. Ray Klump que discute a conexão única entre Ciência da Computação e Artes Liberais.

Cursos de amostra:

  • Fundamentos de programação
  • Programação Orientada a Objetos
  • Linguagens de programação
  • Organização de computadores
  • História Global
  • Historiografia
  • História dos Estados Unidos
  • História Européia

Opções de carreira:

  • Arquivista Digital
  • Historiador
  • Designer de exposições de museus
  • Autor
  • Desenvolvedor de jogos
  • Desenvolvedor da Web

Oportunidades no campus

  • ECaMS Cyber ​​Defense Club
  • Prometheon Technology Club
  • Capítulo de Aluno do IEEE
  • Math Club
  • e-Sports Club
  • Laboratório de Ciência de Dados e Inteligência Artificial (DataSAIL)

Requisitos de Admissão

Consulte o Escritório de Admissão para obter os requisitos de inscrição e as próximas etapas específicas.

Programas Relacionados

Para mais informações, entre em contato com o Escritório de Admissão em [email protected] ou ligue para (815) 836-5250.

Conversa de Aluno

Laura Zukoski

Laura Zukoski explica como todas as lições que ela aprende em suas aulas de Ciência da Computação são "aplicáveis ​​no mundo real". Ela sente que adquiriu uma "compreensão sólida dos conceitos básicos de programação".

Conversa de Aluno

Steven Day

"Os instrutores realmente gostam de Ciência da Computação - eles são apaixonados pelo que ensinam. Há muitos recursos aqui para ajudar os alunos a se tornarem bons no que desejam fazer."

Conversa de Aluno

Dennis Stachura

"Existem tantas classes para escolher - se você está mais envolvido no design de aplicativos, ou no design de videogames, ou mesmo no design de aplicativos para seus telefones."


Combinando ciência da computação, a estatística cria máquinas que podem aprender

Aprender bem um assunto significa ir além da recitação de fatos para um conhecimento mais profundo que pode ser aplicado a novos problemas. Projetar computadores que podem transcender cálculos rotineiros para uma compreensão mais sutil desafia os cientistas há anos. Apenas na última década os algoritmos flexíveis e em evolução dos pesquisadores - conhecidos como aprendizado de máquina - amadureceram da teoria à prática diária, sites de pesquisa e tradução de idiomas subjacentes e estratégias de negociação automatizadas usadas por empresas de Wall Street.

Esses aplicativos apenas indicam o potencial do aprendizado de máquina para afetar a vida diária, de acordo com John Lafferty, o professor Louis Block em Estatística e Ciência da Computação. Com suas duas nomeações, Lafferty une essas disciplinas para desenvolver teorias e métodos que expandem o horizonte do aprendizado de máquina para fazer previsões e extrair significado dos dados.

“A ciência da computação está se tornando mais focada em dados do que em computação, e as estatísticas modernas requerem mais sofisticação computacional para trabalhar com grandes conjuntos de dados”, diz Lafferty. “O aprendizado de máquina se baseia e impulsiona essas duas disciplinas.”

O trabalho de Lafferty se concentra nas teorias e algoritmos que impulsionam o aprendizado de máquina. O objetivo é desenvolver programas de computador que, com pouca ou nenhuma entrada humana, possam extrair conhecimento de grandes quantidades de números, texto, áudio ou vídeo e fazer previsões e decisões sobre eventos que não foram codificados em suas instruções.

“As áreas clássicas da matemática aplicada, incluindo equações diferenciais parciais, desenvolvidas a partir do estudo de processos físicos como o fluxo de fluidos”, diz Lafferty. “O que estamos vendo agora é que direções inteiramente novas em matemática aplicada estão surgindo a partir do estudo de grandes conjuntos de dados modernos.”

À medida que o big data se torna mais comum em campos como astronomia, biologia e humanidades, os pesquisadores precisam de novas técnicas estatísticas para revelar sinais significativos em meio ao ruído. O aprendizado de máquina capacita tecnologias avançadas de reconhecimento de rosto e fala a carros que dirigem sozinhos, e os cientistas esperam aplicá-lo a tratamentos médicos personalizados - todos problemas em que os programas de computador devem tomar decisões com base em uma enxurrada de dados, muitos deles nunca antes vistos.

Lafferty ingressou na Universidade em 2011 como parte da iniciativa computacional e matemática aplicada da Divisão de Ciências Físicas, lançada em 2008 para recrutar professores e alunos nessas áreas. Antes disso, ele ajudou a fundar o primeiro departamento de aprendizado de máquina do mundo na Carnegie Mellon University em 2002 e passou vários anos no IBM Thomas J. Watson Research Center, trabalhando nos primeiros projetos de aprendizado de máquina em fala natural e processamento de texto.

Na Carnegie Mellon, os projetos de Lafferty incluíram a construção de um modelo de tópico, com Dave Blei da Universidade de Princeton, a partir do banco de dados completo de artigos da revista Ciência desde a sua fundação em 1880. Ao conectar grupos de palavras semanticamente relacionados que aparecem juntos em papéis com mais frequência do que o acaso, o modelo de tópico esculpe uma estrutura a partir desse enorme banco de dados de texto. Os pesquisadores podem então explorar o periódico seguindo termos relevantes para sua área, encontrando artigos esquecidos que os mecanismos de pesquisa simples podem não detectar.

Hoje, Lafferty estuda o equilíbrio entre as demandas concorrentes de eficiência computacional e precisão estatística, encontrando novas maneiras de lidar com conjuntos de dados de alta dimensão. Enquanto a estatística tradicional se concentra em dados “altos e finos”, com muitos registros e poucas variáveis, os conjuntos de dados modernos, como os da genômica, costumam ser “curtos e amplos”, apresentando poucos assuntos e dezenas de milhares de variáveis. Os pesquisadores precisam de maneiras de separar os fatores relevantes dos irrelevantes para tornar a análise estatística possível.

Lafferty também estuda o aprendizado semissupervisionado, uma técnica de aprendizado de máquina em que um humano treina o computador para categorizar entradas, como fala ou imagens, e então o libera com dados novos e invisíveis. Na Carnegie Mellon, Lafferty e seus colegas desenvolveram um programa de visão computacional para reconhecer pessoas em uma webcam que estudantes de graduação instalaram na sala do departamento de ciência da computação para observar as sobras do seminário. Depois que um observador inseriu os rótulos no primeiro dia de coleta de dados, o programa foi mais de 80% preciso na identificação de dez indivíduos que compareceram regularmente ao longo de quatro meses.

Nesta primavera, Lafferty está ensinando aprendizado de máquina para uma nova geração de cientistas. No curso Aprendizado de Máquina e Análise de Dados em Grande Escala, os alunos de graduação desenvolvem algoritmos para prever o crime em Chicago, pesquisar exoplanetas, encontrar desejos de Ano Novo no Twitter e estudar a linguagem em endereços do Estado da União, executando suas análises em clusters de computadores virtuais construído na Amazon Web Services. Os alunos matriculados no curso incluem especializações em física, matemática, ciência da computação, lingüística, economia, neurociência e ciências políticas, refletindo a ampla relevância do aprendizado de máquina para o mundo da pesquisa de hoje.

Enquanto muitos especialistas em aprendizado de máquina são atraídos para empresas como o Google para trabalhar em aplicativos específicos, Lafferty vê um trabalho mais amplo e surpreendente vindo de universidades de pesquisa. “O impacto potencial é muito grande”, diz Lafferty, “e as ideias que estamos desenvolvendo serão aplicadas de maneiras que nem podemos prever”.

—História publicada originalmente no boletim PSD Investigação, primavera / verão 2013


Requisitos do curso

Os alunos que buscam este grau conjunto devem ter pelo menos treinamento básico ou experiência em ciência da computação.

Até 45 unidades trimestrais de cursos aprovados podem ser contadas para ambos os graus. Não mais do que 31 unidades trimestrais de cursos aprovados que se originam fora da faculdade de direito podem contar para o diploma de direito.

O número máximo de créditos da faculdade de direito que podem ser contados para o grau de MS em ciência da computação é o maior de: (i) 12 unidades trimestrais ou (ii) o número máximo de unidades de cursos fora do departamento que os candidatos de MS em ciência da computação são permitido para contar para o grau de MS sob as diretrizes gerais do departamento, ou conforme estabelecido no caso de um programa individual de um aluno em particular.


Como a psicologia e a ciência da computação estão relacionadas?

Qual é a relação entre psicologia e ciência da computação? apareceu originalmente no Quora: o lugar para adquirir e compartilhar conhecimento, capacitando as pessoas a aprender com os outros e compreender melhor o mundo.

Resposta de Tikhon Jelvis, pesquisa sobre linguagens de programação, no Quora:

Existem duas maneiras de analisar esta questão: "qual é a relação entre a ciência da computação e psicologia acadêmica? "e "qual é a relação entre ciência da computação e psicologia no sentido de" como as pessoas pensam? "

Para ilustrar a diferença, considere arte e literatura: ninguém pode negar que arte e literatura estão profundamente entrelaçadas com psicologia humanae, ainda assim, a arte e a literatura mais perspicazes e de alto impacto são criadas por artistas e autores que têm pouca ou nenhuma exposição à psicologia como uma disciplina acadêmica- e quem certamente não estava usando métodos de pesquisa psicológica para criar sua arte!

Então, como isso se aplica à ciência da computação?

Bem, uma parte significativa da pesquisa em ciência da computação é determinada - em um grau maior ou menor - pela psicologia no sentido informal. Os sistemas de computador são usados ​​por, ou pelo menos correr para, os sistemas humanos devem ser projetados com isso em mente, e os objetivos da pesquisa, em última análise, se resumem aos fatores humanos. Fora da pesquisa inteiramente contida em uma área - trabalho teórico destinado a promover outros sistemas de trabalho teórico, pesquisa respondendo a perguntas para melhorar outros sistemas - você espera que a maioria dos projetos seja pelo menos guiado por algum tipo de fatores humanos.

Claro, muitas vezes o “guia” é bastante genérico: nós projetamos este sistema para ser mais rápido porque os humanos percebem subconscientemente um tempo de resposta & gt100ms como lento. Esse é um insight psicológico real, mas é amplamente conhecido - e o resto da pesquisa, as coisas que realmente levam as pessoas mais tempo no projeto, serão todas baseadas na melhoria do desempenho. Em certo sentido, sim, a psicologia importava em outro, realmente não importava.

Mesmo quando o trabalho está mais intimamente ligado ao pensamento humano, ele não tem que se relacionar com a psicologia acadêmica ou seus métodos de pesquisa (assim como a arte!). O design da linguagem de programação é um exemplo maravilhoso: é fundamentalmente um Projeto disciplina, e enquanto isso posso tente usar métodos empíricos como a psicologia, não é necessário - não mais do que o design visual. Isto posso, assim como o design visual pode usar o teste AB - mas os melhores exemplos de design raramente envolvem testes empíricos extensivos, nem em linguagens de programação nem em design visual.

Eu também escolhi o design de linguagem de programação como exemplo porque acho que está muito mais próximo da arte do que as pessoas imaginam. Especificamente, a tipografia é um ótimo analógico: ninguém pode negar que é tudo sobre psicologia e, no entanto, a maioria das pessoas envolvidas em tipografia não tem formação em psicologia formal ou usa métodos de pesquisa em psicologia. O mesmo para a ciência da computação.

Existem apenas dois campos que realmente dependem da psicologia “formal”: interação humano-computador (HCI) e engenharia de software. Ambos os campos dependem consistentemente da pesquisa em psicologia e usam métodos de pesquisa desenvolvidos por psicólogos. (Os estudos de usuário e experimentos executados por pesquisadores de HCI parecerão familiares para psicólogos!)

Essa questão apareceu originalmente no Quora - o lugar para adquirir e compartilhar conhecimento, capacitando as pessoas a aprenderem com outras e a compreenderem melhor o mundo. Você pode seguir o Quora no Twitter, Facebook e Google+. Mais perguntas:


Ciência da computação x engenharia: cargos comuns

Com um melhor entendimento das diferenças fundamentais por trás da ciência da computação e da engenharia, você provavelmente está curioso sobre as carreiras em cada área. Ambos os setores oferecem uma variedade de posições que podem intrigar você.

Usamos um software de análise de anúncios de emprego para examinar os anúncios de emprego do ano anterior em cada área. Esses dados nos ajudaram a identificar os cinco principais cargos em cada setor.

Posições mais comuns em ciência da computação 1

Funções de trabalho: 2

  • Projeta e personaliza software de aplicativos de computador
  • Modifica o software existente para otimizar a eficiência operacional ou corrigir erros
  • Avalia os requisitos de software e as necessidades do usuário para determinar a viabilidade do software

Crescimento de empregos projetado (2016 e ndash2026): 24% 2

Salário médio anual (2018): $105,590 2

Funções de trabalho: 2

  • Analisa problemas de processamento de dados para melhorar os sistemas de computador
  • Desenvolve e testa procedimentos de design de sistema
  • Aumenta a compatibilidade do sistema para que as informações possam ser compartilhadas facilmente

Crescimento de empregos projetado (2016 e ndash2026): 9% 2

Salário médio anual (2018): $88,740 2

Funções de trabalho: 2

  • Instala e oferece suporte a um sistema de rede de organização e rsquos
  • Examina as funções do site para garantir o desempenho sem interrupção
  • Executa backups de dados e operações de recuperação de desastres

Crescimento de empregos projetado (2016 e ndash2026): 6% 2

Salário médio anual (2018): $82,050 2

Funções de trabalho: 2

  • Instala software e firewalls em computadores de uma organização e rsquos
  • Executa testes de segurança para determinar quaisquer vulnerabilidades em uma rede
  • Cria planos de recuperação de desastres para os funcionários de TI seguirem em caso de emergência

Crescimento de empregos projetado (2016 e ndash2026): 28% 2

Salário médio anual (2018): $98,350 2

Funções de trabalho: 2

  • Escreve, projeta e edita o conteúdo da página da web ou direciona outros produtores de conteúdo
  • Identifica e corrige problemas descobertos por testes ou feedback do usuário
  • Faz backup dos arquivos do site para recuperação imediata em caso de problemas

Crescimento de empregos projetado (2016 e ndash2026): 15% 2

Salário médio anual (2018): $69,430 2

Posições de engenharia mais comuns 3

Funções de trabalho: 2

  • Pesquisa, desenvolve e testa a fabricação e instalação de sistemas elétricos
  • Cria desenhos técnicos ou mapas topográficos para ajudar a orientar a instalação e as operações
  • Direciona esforços para garantir a conformidade com as especificações, códigos e requisitos do cliente

Crescimento de empregos projetado (2016 e ndash2026): 7% 2

Salário médio anual (2018): $99,070 2

Funções de trabalho: 2

  • Projeta, planeja e desenvolve materiais usados ​​em uma gama de produtos
  • Supervisiona uma equipe de tecnólogos, técnicos, cientistas e outros engenheiros
  • Calcula especificações técnicas, fatores econômicos e impacto dos materiais no meio ambiente

Crescimento de empregos projetado (2016 e ndash2026): 2% 2

Salário médio anual (2018): $92,390 2

Funções de trabalho: 2

  • Supervisiona a instalação, operação, manutenção e reparo de equipamentos mecânicos
  • Lê e interpreta projetos, relatórios gerados por computador ou desenhos técnicos
  • Investiga falhas de equipamento ou problemas para diagnosticar a operação defeituosa e recomendar soluções

Crescimento de empregos projetado (2016 e ndash2026): 9% 2

Salário médio anual (2018): $87,370 2

Funções de trabalho: 2

  • Projeta, desenvolve e avalia sistemas integrados de gestão de processos de produção industrial
  • Estima orçamentos de produção e métodos de redução de custos para análise de gerenciamento
  • Mapeia o layout de equipamentos, materiais e espaço de trabalho para alcançar a máxima eficiência

Crescimento do emprego projetado (2016-2026): 10% 2

Salário médio anual (2018): $87,040 2

Funções de trabalho: 2

  • Supervisiona a integração geral das atividades técnicas em projetos de arquitetura ou engenharia
  • Consulta várias partes interessadas para discutir as especificações ou procedimentos do projeto
  • Prepara e apresenta propostas, relatórios ou descobertas aos clientes

Crescimento de empregos projetado (2016 e ndash2026): 11% 2

Salário médio anual (2018): $86,640 2

Ciência da computação x engenharia: salário e perspectivas de emprego

A lista de cargos mostra a variedade de carreiras disponíveis nas áreas de ciência da computação e engenharia. Saber o que você está fazendo no dia a dia é importante, mas o seu lado prático também precisa saber mais sobre a força dessas áreas de carreira.

Potencial de ganho

Vamos começar com o potencial de ganhos. Como ponto de referência, o salário médio anual para todas as ocupações em 2018 era $ 38.640, de acordo com o BLS. 2 Os ganhos médios anuais para cargos relacionados à ciência da computação e tecnologia em 2018 era $86,320. 2 Profissionais da área de engenharia ganhou uma renda mediana de $80,170 nesse mesmo ano. 2

Como você pode ver, os cursos de ciência da computação e engenharia podem fornecer a você a oportunidade de obter uma renda acima da média. É importante observar que as faixas salariais variam de acordo com a posição real que você exerce e não refletem o que você ganharia no nível inicial, mas avaliar uma média para cada campo pode lhe dar uma ideia das possibilidades.

Crescimento projetado do emprego

Todo o potencial de ganhos do mundo não vale muito para você se não houver empregos disponíveis, e é por isso que é importante levar em consideração essas perspectivas de crescimento do emprego. Para fins de comparação, tenha em mente que o crescimento médio projetado no emprego para todas as ocupações é de 7% até 2026, de acordo com o BLS. 2

O BLS relata que carreiras relacionadas à ciência da computação apresentam projeções de crescimento otimistas, com empregos para cargos como desenvolvedores de aplicativos de software projetados para crescer 31%. 2 O crescimento médio projetado do emprego para todos os cargos na área é de 13%. 2 Por outro lado, espera-se que os empregos de engenharia cresçam tão rápido quanto a média para todas as ocupações, com um crescimento médio do emprego projetado de 7%. 2

A julgar por esta categoria, fica claro que as posições relacionadas à ciência da computação parecem estar crescendo em um ritmo mais rápido. Parte disso pode ser devido à maturidade das indústrias - no grande esquema das coisas, as posições de ciência da computação e tecnologia são relativamente novas em comparação com o campo bem estabelecido da engenharia, e é lógico que as indústrias em maturação tenham espaço adicional para crescimento.


Conteúdo

Os primeiros fundamentos do que se tornaria a ciência da computação são anteriores à invenção do computador digital moderno. Máquinas para calcular tarefas numéricas fixas, como o ábaco, existem desde a antiguidade, ajudando em cálculos como multiplicação e divisão. Algoritmos para realizar cálculos existem desde a antiguidade, mesmo antes do desenvolvimento de equipamentos de computação sofisticados.

Wilhelm Schickard projetou e construiu a primeira calculadora mecânica funcional em 1623. [9] Em 1673, Gottfried Leibniz demonstrou uma calculadora mecânica digital, chamada Stepped Reckoner. [10] Leibniz pode ser considerado o primeiro cientista da computação e teórico da informação, por, entre outras razões, documentar o sistema de números binários. Em 1820, Thomas de Colmar lançou a indústria de calculadoras mecânicas [nota 1] quando inventou seu aritmômetro simplificado, a primeira máquina de calcular forte e confiável o suficiente para ser usada diariamente em um ambiente de escritório. Charles Babbage iniciou o design do primeiro calculadora mecânica automática, sua máquina de diferenças, em 1822, que acabou lhe dando a ideia da primeira calculadora mecânica programável, seu mecanismo analítico. [11] Ele começou a desenvolver esta máquina em 1834, e "em menos de dois anos, ele esboçou muitas das características salientes do computador moderno". [12] "Um passo crucial foi a adoção de um sistema de cartão perfurado derivado do tear Jacquard" [12] tornando-o infinitamente programável. [nota 2] Em 1843, durante a tradução de um artigo francês sobre a máquina analítica, Ada Lovelace escreveu, em uma das muitas notas que incluiu, um algoritmo para calcular os números de Bernoulli, considerado o primeiro algoritmo publicado de todos os tempos especificamente adaptado para implementação em um computador. [13] Por volta de 1885, Herman Hollerith inventou o tabulador, que usava cartões perfurados para processar informações estatísticas, eventualmente, sua empresa tornou-se parte da IBM. Seguindo Babbage, embora sem saber de seu trabalho anterior, Percy Ludgate em 1909 publicou [14] o segundo dos únicos dois projetos de motores analíticos mecânicos da história. Em 1937, cem anos após o sonho impossível de Babbage, Howard Aiken convenceu a IBM, que estava fabricando todos os tipos de equipamentos para cartões perfurados e também no ramo de calculadoras [15], a desenvolver sua calculadora programável gigante, a ASCC / Harvard Mark I, baseada no mecanismo analítico de Babbage, que por sua vez usava cartões e uma unidade de computação central. Quando a máquina foi concluída, alguns saudaram-na como "o sonho de Babbage tornou-se realidade". [16]

Durante a década de 1940, com o desenvolvimento de máquinas de computação novas e mais poderosas, como o computador Atanasoff – Berry e ENIAC, o termo computador passou a se referir às máquinas em vez de seus predecessores humanos. [17] Quando ficou claro que os computadores poderiam ser usados ​​para mais do que apenas cálculos matemáticos, o campo da ciência da computação se ampliou para estudar a computação em geral. Em 1945, a IBM fundou o Laboratório de Computação Científica Watson na Universidade de Columbia na cidade de Nova York. A casa da fraternidade renovada no West Side de Manhattan foi o primeiro laboratório da IBM dedicado à ciência pura. O laboratório é o precursor da Divisão de Pesquisa da IBM, que hoje opera instalações de pesquisa em todo o mundo. [18] Em última análise, a estreita relação entre a IBM e a universidade foi fundamental para o surgimento de uma nova disciplina científica, com a Columbia oferecendo um dos primeiros cursos de crédito acadêmico em ciência da computação em 1946. [19] A ciência da computação começou a ser estabelecida como uma disciplina acadêmica distinta nos anos 1950 e início dos anos 1960. [20] [21] O primeiro programa de graduação em ciência da computação do mundo, o Cambridge Diploma in Computer Science, começou no University of Cambridge Computer Laboratory em 1953. O primeiro departamento de ciência da computação nos Estados Unidos foi formado na Purdue University em 1962. [ 22] Desde que os computadores práticos se tornaram disponíveis, muitas aplicações de computação se tornaram áreas distintas de estudo em seus próprios direitos.

Embora proposto pela primeira vez em 1956, [23] o termo "ciência da computação" aparece em um artigo de 1959 em Comunicações do ACM, [24] em que Louis Fein defende a criação de um Escola de Pós-Graduação em Ciências da Computação análogo à criação da Harvard Business School em 1921, [25] justificando o nome argumentando que, como a ciência da gestão, a disciplina é aplicada e interdisciplinar por natureza, embora possua as características próprias de uma disciplina acadêmica. [24] Seus esforços, e os de outros como o analista numérico George Forsythe, foram recompensados: as universidades passaram a criar tais departamentos, começando com Purdue em 1962. [26] Apesar do nome, uma quantidade significativa de ciência da computação não envolve o estudo dos próprios computadores. Por causa disso, vários nomes alternativos foram propostos. [27] Certos departamentos de grandes universidades preferem o termo ciência da computação, para enfatizar precisamente essa diferença. O cientista dinamarquês Peter Naur sugeriu o termo datalogia, [28] para refletir o fato de que a disciplina científica gira em torno de dados e tratamento de dados, embora não necessariamente envolva computadores. A primeira instituição científica a usar o termo foi o Departamento de Datalogia da Universidade de Copenhagen, fundado em 1969, com Peter Naur sendo o primeiro professor de datalogia. O termo é usado principalmente nos países escandinavos. Um termo alternativo, também proposto por Naur, é ciência de dados, que agora é usado para um campo multidisciplinar de análise de dados, incluindo estatísticas e bancos de dados.

Nos primeiros dias da computação, uma série de termos para os profissionais da área de computação foram sugeridos no Comunicações do ACMturingineer, turologista, fluxograma-homem, metamatemático aplicado, e epistemologista aplicado. [29] Três meses depois, no mesmo jornal, comptologista foi sugerido, seguido no próximo ano por hipologista. [30] O termo computação também foi sugerido. [31] Na Europa, os termos derivados de traduções contratadas da expressão "informação automática" (por exemplo, "informazione automatica" em italiano) ou "informação e matemática" são freqüentemente usados, por exemplo, informatique (Francês), Informatik (Alemão), informática (Italiano, holandês), informática (Espanhol, português), informatika (Línguas eslavas e húngaro) ou Pliroforiki (πληροφορική, que significa informática) em grego. Palavras semelhantes também foram adotadas no Reino Unido (como em a Escola de Informática da Universidade de Edimburgo) [32] "Nos EUA, no entanto, a informática está ligada à computação aplicada, ou computação no contexto de outro domínio." [33]

Uma citação folclórica, muitas vezes atribuída a - mas quase certamente não formulada por - Edsger Dijkstra, afirma que "a ciência da computação não é mais sobre computadores do que a astronomia é sobre telescópios." [nota 3] O projeto e implantação de computadores e sistemas de computador é geralmente considerado domínio de outras disciplinas além da ciência da computação. Por exemplo, o estudo de hardware de computador é geralmente considerado parte da engenharia da computação, enquanto o estudo de sistemas de computador comerciais e sua implantação costuma ser chamado de tecnologia da informação ou sistemas de informação. No entanto, tem havido muita fertilização cruzada de idéias entre as várias disciplinas relacionadas ao computador. A pesquisa em ciência da computação também costuma cruzar outras disciplinas, como filosofia, ciências cognitivas, lingüística, matemática, física, biologia, ciências da Terra, estatística e lógica.

A ciência da computação é considerada por alguns como tendo uma relação muito mais próxima com a matemática do que muitas disciplinas científicas, com alguns observadores dizendo que a computação é uma ciência matemática. [20] A ciência da computação inicial foi fortemente influenciada pelo trabalho de matemáticos como Kurt Gödel, Alan Turing, John von Neumann, Rózsa Péter e Alonzo Church e continua a haver um intercâmbio útil de idéias entre os dois campos em áreas como matemática lógica, teoria das categorias, teoria do domínio e álgebra. [23]

A relação entre Ciência da Computação e Engenharia de Software é uma questão controversa, que é ainda mais turva por disputas sobre o que o termo "Engenharia de Software" significa e como a ciência da computação é definida. [34] David Parnas, seguindo a sugestão da relação entre outras disciplinas de engenharia e ciências, afirmou que o foco principal da ciência da computação é estudar as propriedades da computação em geral, enquanto o foco principal da engenharia de software é o projeto de cálculos específicos para atingir objetivos práticos, tornando as duas disciplinas separadas, mas complementares. [35]

Os aspectos acadêmicos, políticos e de financiamento da ciência da computação tendem a depender de o departamento ser formado com ênfase matemática ou engenharia. Os departamentos de ciência da computação com ênfase em matemática e orientação numérica consideram o alinhamento com a ciência da computação. Ambos os tipos de departamentos tendem a fazer esforços para construir uma ponte sobre o campo educacionalmente, se não através de todas as pesquisas.

Vários cientistas da computação defenderam a distinção de três paradigmas separados na ciência da computação. Peter Wegner argumentou que esses paradigmas são ciência, tecnologia e matemática. [36] O grupo de trabalho de Peter Denning argumentou que eles são teoria, abstração (modelagem) e design. [37] Amnon H.Eden os descreveu como o "paradigma racionalista" (que trata a ciência da computação como um ramo da matemática, que é predominante na ciência da computação teórica, e principalmente emprega o raciocínio dedutivo), o "paradigma tecnocrático" (que pode ser encontrado em abordagens de engenharia, a maioria com destaque na engenharia de software), e o "paradigma científico" (que aborda artefatos relacionados à computação a partir da perspectiva empírica das ciências naturais, identificáveis ​​em alguns ramos da inteligência artificial). [38] A ciência da computação se concentra em métodos envolvidos em design, especificação, programação, verificação, implementação e teste de sistemas de computação feitos pelo homem. [39]

A ciência da computação não trata mais de computadores do que a astronomia trata de telescópios.

Como disciplina, a ciência da computação abrange uma variedade de tópicos, desde estudos teóricos de algoritmos e os limites da computação até as questões práticas de implementação de sistemas de computação em hardware e software. [40] [41] O CSAB, anteriormente denominado Comitê de Acreditação de Ciências da Computação - que é composto por representantes da Association for Computing Machinery (ACM) e da IEEE Computer Society (IEEE CS) [42] - identifica quatro áreas que considera crucial para a disciplina de ciência da computação: teoria da computação, algoritmos e estruturas de dados, metodologia e linguagens de programação, e elementos e arquitetura de computador. Além dessas quatro áreas, a CSAB também identifica campos como engenharia de software, inteligência artificial, redes e comunicação de computadores, sistemas de banco de dados, computação paralela, computação distribuída, interação humano-computador, computação gráfica, sistemas operacionais e computação numérica e simbólica como sendo áreas importantes da ciência da computação. [40]

Ciência da computação teórica Editar

Ciência da Computação Teórica é matemático e abstrato em espírito, mas deriva sua motivação da computação prática e cotidiana. Seu objetivo é compreender a natureza da computação e, como consequência desse entendimento, fornecer metodologias mais eficientes.

Teoria da computação Editar

De acordo com Peter Denning, a questão fundamental subjacente à ciência da computação é: "O que pode ser automatizado?" [20] A teoria da computação concentra-se em responder a questões fundamentais sobre o que pode ser calculado e que quantidade de recursos são necessários para realizar esses cálculos. Em um esforço para responder à primeira pergunta, a teoria da computabilidade examina quais problemas computacionais são solucionáveis ​​em vários modelos teóricos de computação. A segunda questão é abordada pela teoria da complexidade computacional, que estuda os custos de tempo e espaço associados a diferentes abordagens para resolver uma infinidade de problemas computacionais.

O famoso P = NP? problema, um dos Problemas do Prêmio do Milênio, [43] é um problema aberto na teoria da computação.

Informação e teoria da codificação Editar

A teoria da informação, intimamente relacionada à probabilidade e à estatística, está relacionada à quantificação da informação. Isso foi desenvolvido por Claude Shannon para encontrar limites fundamentais nas operações de processamento de sinal, como compactação de dados e armazenamento e comunicação confiáveis ​​de dados. [44] A teoria da codificação é o estudo das propriedades dos códigos (sistemas para converter informações de uma forma para outra) e sua adequação a uma aplicação específica. Os códigos são usados ​​para compressão de dados, criptografia, detecção e correção de erros e, mais recentemente, também para codificação de rede. Os códigos são estudados com o propósito de projetar métodos de transmissão de dados eficientes e confiáveis. [45]

Estrutura de dados e algoritmos Editar

Estruturas de dados e algoritmos são os estudos de métodos computacionais comumente usados ​​e sua eficiência computacional.

Teoria da linguagem de programação e métodos formais Editar

A teoria da linguagem de programação é um ramo da ciência da computação que lida com o design, implementação, análise, caracterização e classificação de linguagens de programação e seus recursos individuais. Ele se enquadra na disciplina de ciência da computação, dependendo e afetando matemática, engenharia de software e linguística. É uma área de pesquisa ativa, com inúmeras revistas acadêmicas dedicadas.

Os métodos formais são um tipo particular de técnica com base matemática para a especificação, desenvolvimento e verificação de sistemas de software e hardware. [46] O uso de métodos formais para projeto de software e hardware é motivado pela expectativa de que, como em outras disciplinas de engenharia, a realização de análises matemáticas adequadas pode contribuir para a confiabilidade e robustez de um projeto. Eles formam uma base teórica importante para a engenharia de software, especialmente quando a segurança ou proteção está envolvida. Os métodos formais são um complemento útil para o teste de software, pois ajudam a evitar erros e também podem fornecer uma estrutura para o teste. Para uso industrial, é necessário suporte de ferramenta. No entanto, o alto custo do uso de métodos formais significa que eles geralmente são usados ​​apenas no desenvolvimento de sistemas de alta integridade e essenciais para a vida, onde a segurança é de extrema importância. Os métodos formais são melhor descritos como a aplicação de uma variedade bastante ampla de fundamentos teóricos da ciência da computação, em particular cálculos lógicos, linguagens formais, teoria dos autômatos e semântica do programa, mas também sistemas de tipo e tipos de dados algébricos para problemas na especificação de software e hardware e verificação.

Sistemas de computador e processos computacionais Editar

Inteligência artificial Editar

A inteligência artificial (IA) visa ou é necessária para sintetizar processos orientados por objetivos, como resolução de problemas, tomada de decisão, adaptação ambiental, aprendizagem e comunicação encontrados em humanos e animais. Desde suas origens na cibernética e na Conferência de Dartmouth (1956), a pesquisa em inteligência artificial tem sido necessariamente interdisciplinar, valendo-se de áreas de especialização como matemática aplicada, lógica simbólica, semiótica, engenharia elétrica, filosofia da mente, neurofisiologia e social inteligência. A IA está associada, na mente popular, ao desenvolvimento robótico, mas o principal campo de aplicação prática tem sido como um componente embutido em áreas de desenvolvimento de software, que requerem compreensão computacional. O ponto de partida no final dos anos 1940 foi a pergunta de Alan Turing "Os computadores podem pensar?", E a pergunta permanece efetivamente sem resposta, embora o teste de Turing ainda seja usado para avaliar a produção do computador na escala da inteligência humana. Mas a automação de tarefas avaliativas e preditivas tem sido cada vez mais bem-sucedida como um substituto para o monitoramento humano e a intervenção em domínios de aplicativos de computador que envolvem dados complexos do mundo real.

Arquitetura e organização do computador Editar

A arquitetura do computador, ou organização digital do computador, é o projeto conceitual e a estrutura operacional fundamental de um sistema de computador. Ele se concentra principalmente na maneira pela qual a unidade central de processamento atua internamente e acessa os endereços na memória. [47] Os engenheiros de computação estudam a lógica computacional e o projeto de hardware de computador, desde componentes de processadores individuais, microcontroladores, computadores pessoais até supercomputadores e sistemas embarcados. O termo “arquitetura” na literatura da computação pode ser rastreado até o trabalho de Lyle R. Johnson e Frederick P. Brooks, Jr., membros do departamento de Organização de Máquinas no principal centro de pesquisa da IBM em 1959.

Edição de computação simultânea, paralela e distribuída

A simultaneidade é uma propriedade de sistemas nos quais vários cálculos estão sendo executados simultaneamente e potencialmente interagindo uns com os outros. [48] ​​Uma série de modelos matemáticos foram desenvolvidos para computação concorrente geral, incluindo redes de Petri, cálculos de processo e o modelo de máquina de acesso aleatório paralela. [49] Quando vários computadores são conectados em uma rede usando a simultaneidade, isso é conhecido como um sistema distribuído. Os computadores dentro desse sistema distribuído têm sua própria memória privada e as informações podem ser trocadas para atingir objetivos comuns. [50]

Redes de computadores Editar

Este ramo da ciência da computação visa gerenciar redes entre computadores em todo o mundo.

Segurança de computador e criptografia Editar

A segurança do computador é um ramo da tecnologia da computação com o objetivo de proteger as informações contra acesso não autorizado, interrupção ou modificação, ao mesmo tempo em que mantém a acessibilidade e a usabilidade do sistema para os usuários pretendidos. A criptografia é a prática e o estudo de ocultar (criptografar) e, portanto, decifrar (descriptografar) informações. A criptografia moderna está amplamente relacionada à ciência da computação, pois muitos algoritmos de criptografia e descriptografia são baseados em sua complexidade computacional.

Edição de bancos de dados e mineração de dados

Um banco de dados se destina a organizar, armazenar e recuperar grandes quantidades de dados com facilidade. Os bancos de dados digitais são gerenciados usando sistemas de gerenciamento de banco de dados para armazenar, criar, manter e pesquisar dados, por meio de modelos de banco de dados e linguagens de consulta. A mineração de dados é um processo de descoberta de padrões em grandes conjuntos de dados.

Edição de gráficos e visualização de computador

A computação gráfica é o estudo de conteúdos visuais digitais e envolve a síntese e manipulação de dados de imagem. O estudo está conectado a muitos outros campos da ciência da computação, incluindo visão computacional, processamento de imagens e geometria computacional, e é fortemente aplicado nas áreas de efeitos especiais e videogames.

Editar imagem e processamento de som

As informações podem assumir a forma de imagens, som, vídeo ou outra multimídia. Pedaços de informação podem ser transmitidos por meio de sinais. O seu processamento é a noção central da informática, a visão europeia sobre a computação, que estuda os algoritmos de processamento da informação independentemente do tipo de portador da informação - seja elétrico, mecânico ou biológico. Este campo desempenha papel importante na teoria da informação, telecomunicações, engenharia da informação e tem aplicações em computação de imagens médicas e síntese de fala, entre outras. Qual é o limite inferior da complexidade dos algoritmos de transformada rápida de Fourier? é um dos problemas não resolvidos na ciência da computação teórica.

Ciência da computação aplicada Editar

Ciência da computação, finanças e engenharia Editar

A computação científica (ou ciência da computação) é o campo de estudo que se preocupa com a construção de modelos matemáticos e técnicas de análise quantitativa e com o uso de computadores para analisar e resolver problemas científicos. Um dos principais usos da computação científica é a simulação de vários processos, incluindo dinâmica de fluidos computacional, sistemas e circuitos físicos, elétricos e eletrônicos, bem como sociedades e situações sociais (notadamente jogos de guerra) junto com seus habitats, entre muitos outros. Os computadores modernos permitem a otimização de projetos como aeronaves completas. Notáveis ​​em projetos de circuitos elétricos e eletrônicos são SPICE, [51], bem como software para realização física de projetos novos (ou modificados). Este último inclui software de design essencial para circuitos integrados. [ citação necessária ]

Computação social e interação humano-computador Editar

A computação social é uma área que se preocupa com a interseção do comportamento social e dos sistemas computacionais. A pesquisa de interação humano-computador desenvolve teorias, princípios e diretrizes para designers de interface de usuário.

Edição de engenharia de software

Engenharia de software é o estudo de projetar, implementar e modificar o software para garantir que seja de alta qualidade, acessível, de fácil manutenção e rápido de construir. É uma abordagem sistemática do projeto de software, envolvendo a aplicação de práticas de engenharia ao software. A engenharia de software lida com a organização e análise de software - ela não lida apenas com a criação ou manufatura de um novo software, mas com seu arranjo interno e manutenção. Por exemplo, testes de software, engenharia de sistemas, dívida técnica e processos de desenvolvimento de software.

O filósofo da computação Bill Rapaport observou três Grandes percepções da ciência da computação: [52]

    de George Boole, Alan Turing, Claude Shannon e Samuel Morse: existem apenas dois objetos que um computador tem que lidar para representar "qualquer coisa". [nota 4]
    percepção de: existem apenas cinco ações que um computador deve executar para fazer "qualquer coisa".
  • mover para a esquerda um local
  • mova um local certo
  • ler o símbolo na localização atual
  • imprimir 0 na localização atual
  • imprimir 1 na localização atual.
    e a visão de Giuseppe Jacopini: existem apenas três maneiras de combinar essas ações (em outras mais complexas) que são necessárias para que um computador faça "qualquer coisa". [54]
  • seqüência: primeiro faça isso, depois faça aquilo
  • seleção: SE tal e tal for o caso, ENTÃO faça isso, OUTRO faça aquilo
  • repetição: ENQUANTO tal e tal for o caso, FAÇA isso.

Linguagens de programação podem ser usadas para realizar tarefas diferentes de maneiras diferentes. Paradigmas de programação comuns incluem:

    , um estilo de construção da estrutura e dos elementos de programas de computador que trata a computação como a avaliação de funções matemáticas e evita dados de estado e mutáveis. É um paradigma de programação declarativo, o que significa que a programação é feita com expressões ou declarações em vez de instruções. [55], um paradigma de programação que usa instruções que alteram o estado de um programa. [56] Da mesma forma que o modo imperativo em linguagens naturais expressa comandos, um programa imperativo consiste em comandos para o computador executar. A programação imperativa se concentra em descrever como um programa opera. , um paradigma de programação baseado no conceito de "objetos", que podem conter dados, na forma de campos, muitas vezes conhecidos como atributos e código, na forma de procedimentos, muitas vezes conhecidos como métodos. Uma característica dos objetos é que os procedimentos de um objeto podem acessar e frequentemente modificar os campos de dados do objeto ao qual estão associados. Assim, os programas de computador orientados a objetos são feitos de objetos que interagem uns com os outros. [57], um paradigma de programação que usa "serviços" como a unidade de trabalho do computador, para projetar e implementar aplicativos de negócios integrados e programas de software de missão crítica

Muitas linguagens oferecem suporte para múltiplos paradigmas, fazendo a distinção mais uma questão de estilo do que de capacidades técnicas. [58]

As conferências são eventos importantes para a pesquisa em ciência da computação. Durante essas conferências, pesquisadores dos setores público e privado apresentam seus trabalhos recentes e se encontram. Ao contrário da maioria dos outros campos acadêmicos, na ciência da computação, o prestígio dos artigos de conferências é maior do que o das publicações em periódicos. [59] [60] Uma explicação proposta para isso é que o rápido desenvolvimento deste campo relativamente novo requer uma rápida revisão e distribuição dos resultados, uma tarefa melhor administrada por conferências do que por periódicos. [61]

Ciência da Computação, conhecido por seus quase sinônimos, Informática, Estudos computacionais, tem sido ensinado em escolas do Reino Unido desde os dias do processamento em lote, marque cartões sensíveis e fita de papel, mas geralmente para alguns alunos selecionados. [62] Em 1981, a BBC produziu um microcomputador e uma rede de sala de aula e os Estudos de Computação se tornaram comuns para alunos do nível GCE O (11-16 anos de idade), e Ciência da Computação para alunos do nível A. A sua importância foi reconhecida, e tornou-se uma parte obrigatória do Currículo Nacional, para o Key Stage 3 e amp 4. Em setembro de 2014, tornou-se um direito para todos os alunos com idade superior a 4 anos. [63]

Nos Estados Unidos, com 14.000 distritos escolares decidindo o currículo, a oferta foi fragmentada. [64] De acordo com um relatório de 2010 da Association for Computing Machinery (ACM) e da Computer Science Teachers Association (CSTA), apenas 14 dos 50 estados adotaram padrões de educação significativos para a ciência da computação do ensino médio. [65]

Israel, Nova Zelândia e Coréia do Sul incluíram a ciência da computação em seus currículos nacionais de ensino médio, [66] [67] e vários outros estão seguindo. [68]


Ensaios e artigos de pesquisa da "relação entre a ciência da computação e a tecnologia da informação"

Era do Em formação Tecnologia Amostra grátis de ensaio sobre The Age of Em formação Tecnologia. Esta era tecnológica é uma era altamente revolucionária e de todas as revoluções tecnológicas a em formação tecnologia atingiu o pico de seu crescimento. Esta explosão em em formação tecnologia não estava previsto há alguns anos, e em todo o mundo em formação tecnologia ajudou a espalhar de em formação de um lugar para outro muito, muito rapidamente. Computadores são a espinha dorsal disso em formação tecnologia.

Engenharia elétrica premium, Ciência da computação, Engenharia de software 548 Words | 3 páginas

Diferença entre Ciência da Computação e Tecnologia da Informação?

diferença entre computador Ciência e em formação tecnologia . Ambos parecem iguais, seus conteúdos também são quase semelhantes. Mas tem diferença entre computador Ciência e em formação tecnologia , e ambos não são as mesmas coisas que a maioria de nós pensa. “Computador Ciência”É a mistura e aplicação de“ Matemática Aplicada ”,“ Engenharia Elétrica “e“ Teoria / Algoritmos da Complexidade ”para compreender e / ou modelar em formação. Em outras palavras, o “campo de computação”. “Em formação Tecnologia".

Engenharia Elétrica Premium, Computação, Algoritmo 727 Palavras | 3 páginas

Tecnologia Informática

UMA computador é um dispositivo eletrônico que pode receber um conjunto de instruções ou programa e realizar este programa executando cálculos em dados numéricos ou compilando e correlacionando outras formas de em formação. (& quotComputador& quot Encarta). Ele também executa cálculos e processos em formação com velocidade e precisão surpreendentes. Computador Tecnologia melhorou nossas vidas. Isso continuará a afetar nosso futuro, o que nos levará a um estilo de vida mais fácil e menos complicado, com mais oportunidades de emprego.

Computação gratuita, computador Colossus, Ciência da computação 1461 palavras | 6 páginas

Ciência da Computação vs Engenharia da Computação

Computador Ciência vs. Computador Engenharia Mudar do ensino médio para a faculdade costuma ser uma montanha-russa na mente da maioria dos alunos.Após o processo de aplicação e aceitação, encontramos uma questão maior: Qual será o nosso principal? Como um computador e tecnologia amante, tive dificuldade em entender e escolher entre computador Ciência e computador engenharia, embora eu já soubesse que queria estudar computadores. As pessoas costumam pensar que estudar computador Ciência é o mesmo que estudar.

Premium Computer, Ciência da computação, Engenharia elétrica 1732 Words | 7 páginas

Computadores

Computadores e a sociedade avaliando o impacto de Tecnologia Departamento de Chris Brooks de Computador Ciência University of San Francisco Avaliando Impacto Tecnológico Pode ser útil pensar sobre as maneiras pelas quais tecnologia afeta a maneira como vivemos nossas vidas. Maioria computador os cientistas têm uma visão bastante positiva de tecnologia. Essa visão é justificada? Como podemos defender essa visão de outros pontos de vista mais céticos? Departamento de Computador Ciência - University of San Francisco - p.1 /? Pesquisar.

Computação gráfica Premium, Ciência da computação, Luddite 1708 Words | 7 páginas

Ciência da Computação

Artigo principal: História da computador Ciência Charles Babbage é creditado com a invenção da primeira mecânica computador. Ada Lovelace é responsável por escrever o primeiro algoritmo destinado ao processamento em um computador. Os primeiros fundamentos do que se tornaria computador Ciência são anteriores à invenção do digital moderno computador. Máquinas para calcular tarefas numéricas fixas, como o ábaco, existem desde a antiguidade, auxiliando em cálculos como multiplicação e.

Computação Premium, criptografia, Charles Babbage 1129 palavras | 4 páginas

Computador: Ficção Científica e Tecnologias Modernas

não deveríamos gostar de moderno tecnologias? É tolice não aceitar [ək'sept] coisas novas e incomuns que não usaram nossos pais. Foi criado com um único propósito ['pɜːpəs] целью - melhorar nossa vida. Mas hoje o mundo está dividido em 2 partes - a primeira são as pessoas que aceitam o moderno tecnologias e aqueles que não o fazem. Pessoalmente, pertenço ao primeiro grupo moderno de pessoas. Como aluno, costumo usar tecnologias e não consigo imaginar minha vida sem computador, telefone celular e outros tecnologias mais. Então eu estou indo.

Celular Premium, Computador, Servidor 720 Words | 3 páginas

Relacionamento entre Deus, Família, Sociedade: Coexistência de Computadores e Relacionamentos

Documento de integração (Relação entre Deus, Família, Sociedade) No campo e estudo de computador Ciência em relação a um relação para outros, acredito que eles podem coexistir e que computador Ciência pode complementar a fé cristã, se mantida em perspectiva. Por exemplo, ambos computador Ciência e o Cristianismo afetam a vida de outras pessoas em todo o mundo, especialmente dos entes queridos em geral. Como computador Ciência faz avanços tecnológicos e progride na descoberta e aplicação de novos tecnologia, somos capazes.

Jesus Premium, Monoteísmo, Cristianismo 1100 Palavras | 5 páginas

Ciência da Computação

formado em Administração de Empresas com opção em computador em formação sistemas. Decidi fazer esta especialização porque sempre pensei computadores desempenham um papel importante na sociedade. Sabendo que desejava ter uma especialização que integrasse Negócios e Computadores Eu escolho este curso e estou ansioso para aplicá-lo em empresas como IBM, Intel, Accenture, Hewlett Packard, etc. Eu acredito que a combinação de tecnologia de ponta de Cal Poly Pomona tecnologia e a experiência prática de trabalho fará de mim um extremamente.

Auditoria de tecnologia da informação Premium, California State Polytechnic University, Pomona, Computer 773 Words | 4 páginas

O Grande Caminho da Ciência da Computação

O Grande Caminho de Computador Ciência Computador Ciência é diferente de qualquer outra carreira lá fora, é envolvente, informativa e necessária para impulsionar tecnologia em todo o mundo. A educação necessária para este campo é extremamente importante e além de desafiar acadêmicos como matemática, física, desenvolvimento de software e programação refletem muito tudo o que há para saber neste campo. Computador Ciência está mudando rapidamente com tecnologia crescendo muito, nunca houve melhor.


Assista o vídeo: Uczniowie byli pewni, że przekupili nauczycielkę Szkoła odc. 397 (Novembro 2022).

Video, Sitemap-Video, Sitemap-Videos