Pesquisar aqui

sábado, 25 de março de 2017

Santiago, um prodígio da programação

 Santiago Gonzalez nasceu em 1998, no estado do Colorado, nos Estados Unidos da América. Com apenas 14 anos Santiago era fluente em doze linguagens de programação, tendo criado múltiplas apps para iOS (iPhone e iPad), como por exemplo uma app que nos permite jogar damas, ou uma app com a qual completamos online alguns puzzles, e que vem com um chat de voz integrado. 


Quando andava apenas no sexto ano, Santiago foi aceite pela universidade Colorado School of Mines, pelas suas capacidades intelectuais muito acima da média, onde tirou o curso de ciência de computadores, com apenas 16 anos. Atualmente, Santiago está a tirar um doutoramento na mesma área, na universidade de University of Texas em Austin.


Como programador Santiago considera-se um perfecionista, escrevendo código como quem escreve poemas, de forma curta e concisa. Para além disso, ele vive tão obcecado por bugs no seu código que chega mesmo a sonhar com soluções para eles, em linguagem de programação.


 Hoje em dia, Santiago vive com um objetivo em mente, o de trabalhar na Apple como programador. Para os mais interessados segue aqui uma pequena reportagem feita pela THNKR, sobre a vida de Santiago, contando com a participação dos seus pais e alguns professores:



fonte (texto e imagens): https://www.youtube.com/watch?v=DBXZWB_dNsw&t=336s (consultado a 24/03/2017)

Porquê Programação?

 A organização Code disponibilizou um vídeo informativo que tem como objetivo convencer jovens a aprender programação, contando com a participação de inúmeros programadores mundialmente reconhecidos como Bill Gates, Mark Zuckerberg, Ruchi Sanghvi ou até Gaben Newell.


 Para eles, programação é essencialmente explicar a um computador o que nós queremos que ele faça. Isto permite-nos criar qualquer programa, qualquer ideia de raiz e, apesar de à primeira vista programação ser algo intimidador, que parece estar muito relacionado com algoritmos, esta não passa da resolução de problemas através da cooperação entre programadores, não sendo necessário ser-se um gênio para programar, mas sim criativo.


 Do ponto de vista da educação, a presença de uma disciplina reservada apenas para a lógica da programação tem-se revelado bastante benéfica para as classificações dos alunos, que subiram num total de trinta por cento.


 Programador é também um trabalho com uma taxa de empregabilidade muito elevada, por exemplo, nos Estados Unidos da América existem num total 1.4 milhões de trabalhos e apenas 400 mil licenciados. Desta forma, combinando isto com o facto de a programação se tratar de um conceito tão abrangente, tendo como único limite a nossa imaginação, é-nos fácil de juntar os nossos gostos pessoais, como entretenimento, biologia ou desporto, com esta profissão, tratando-se por isso de um bom ramo de trabalho.


Para mais informações sobre o conceito de programação e as suas saídas segue aqui um pequeno vídeo (que serviu de fonte) publicado pela organização Code:


fonte (de texto e imagens): https://www.youtube.com/watch?v=dU1xS07N-FA (consultado a 25/03/2017)

sexta-feira, 24 de março de 2017

Culturas diferentes

Nei Valente, um designer brasileiro que atualmente mora em Nova York e Laila Varaschin, uma fotógrafa brasileira que atualmente mora em Brasília, tiveram a ideia de um projeto, decidiram juntar-se para criar um vídeo com interessantes animações em stop-motion de gestos ofensivos utilizados em vários países e que às vezes podem não ser nada ofensivos para nós, mas que em outros países são considerados altamente ofensivos e lhe podem causar sérios problemas.

Veja abaixo e tome nota para sua próxima viagem. O vídeo é simples, mas altamente recomendado para aqueles que vão viajar para o exterior.


quinta-feira, 23 de março de 2017

Stop-motion

Deixo aqui uma stop-motion para verem que relata uma curta história de amor.



Cinema Português em Destaque

Cinema Português em destaque na Capital Francesa

O cinema Português vai ser homenageado em Paris durante um mês no festival dedicado a cineastas europeus - "L'Europe autour de l'Europe".
Uma mostra de cinema com obras de Teresa Villaverde Cabral, Maria de Medeiros ou Manoel de Oliveira.



Para mais algumas informações assistir a seguinte entrevista realizada pela RTP.


Consultei o site da rtp no dia 21 de Março de 2017.

Nova série de animação da Amazon será protagonizada por bichinhos de pelúcia criminosos

Que as empreitadas de serviços de streaming como Netflix e Amazon Prime revolucionaram a maneira como vemos séries e como essas obras são produzidas não é novidade nenhuma. Aliás, cada vez mais consolidadas, conquistando os críticos, o público e diversos prêmios, as produções originais dessas plataformas, além de suas qualidades narrativas, ganharam notoriedade por trazerem inovações em seus conteúdos e em suas narrativas. Um desses projetos ousados é a animação BoJack Horseman, da Netflix, que acompanha as aventuras de um cavalo ator decadente que busca retomar a fama que conquistou nos anos 90. Loucura? Sim. Mas ao que tudo indica, a obra ganhará uma insana rival à altura: Amberville.

Criada por Chris McCoy (Good Kids) e Conrad Vernon (codiretor de Festa da Salsicha) com base na série de livros "Mollisan Town", de Tim Davys, a série acompanhará as aventuras de um urso de pelúcia que, após passar uma temporada na prisão, é obrigado a retornar ao submundo da criminalidade a mando do seu antigo patrão - e agora está aberta a temporada de palpites para descobrir que animal de pelúcia pode ser o "poderoso chefão" da produção. O episódio piloto, escrito por McCoy, será dirigido pelo próprio Vernon (que também foi responsável por comandar outras animações como Shrek 2 e Madagascar 3 - Os Procurados).

Produzida pela Annapurna (empresa que viabilizou Festa da Salsicha e outros filmes recentes como Jovens, Loucos e Mais Rebeldes e Mulheres do Século 20), Amberville ainda não tem previsão de lançamento.



Data: 23/03/2017


quarta-feira, 22 de março de 2017

Affinity Photo 1.5 Review: Best Budget Editor for Pros


For years, various developers have tried to come up with a direct competitor to Adobe Photoshop that would provide the power and depth that professional photographers need at a budget price. The best answer to date has come from an unlikely source: Serif, which has created a completely new program from the ground up. Serif Affinity Photo ($49.99) is a high-powered piece of software that gets our nod for being the best budget photo editor we’ve seen for serious and professional photographers.


Affinity Photo has just about all of the photography-related tools that Photoshop has — such as adjustment layers, masks, color management, dynamic paint brushes, a healing brush, lens correction, and CMYK and RGB editing — as well as support for RAW and 16-bit files. However, it lacks some of Photoshop's extra functionalities that are outside the normal photo editing realm, such as 3D editing.




In some cases, where it is different from the Photoshop workflow, Affinity Photo goes one step further. For instance, the RAW processor is part of the interface, rather than a plugin that takes you out of the workspace. In other words, you can process a RAW image in one tab and work on a JPEG or PSD in another tab at the same time. You can save any RAW edit settings as a preset and apply it to other RAW files.


Affinity Photo’s tools and commands have a depth of functionality that will take some time to explore and master. For anyone used to Photoshop, the learning curve won’t be steep, because Affinity’s interface is as clean and logical, though some terminology is different.
As an example, Affinity Photo separates sets of tools into groups called “Personas.” These aren’t quite the same as Photoshop’s workspaces, though the idea behind them is similar: to conveniently organize related tools and commands. When you click on the button for the Tone-Mapping Persona, it opens a group of docked palettes for all of the color- and exposure- adjustment tools. These include Curves, Channel Mixer, Gradient Map, Threshold, Histogram, White Balance, HSL, Recolor and so forth. Currently, Personas are limited to Photo, Liquify, Develop, Tone-Mapping and Export; there is no custom Persona presently available.


Affinity Photo is a young program, which means that some key portions are still in development or have been overlooked but will probably be added in future incarnations. For instance, Serif is currently going through the extensive list of third-party Photoshop-compatible plugins to ensure they work properly in Affinity Photo. So far, it has tested the most popular ones, such as Nik and Topaz, which Serif says function fully within Affinity. If any particular plugin is important to your workflow, it would be best to check whether it’s supported before making the move to Affinity.


No matter how large your image files are, tools and commands work in real time. That’s because Affinity uses a tiled file format for resolution independent editing. To a certain extent, this is similar to Photoshop’s Smart Objects, except it doesn’t require conversion, and unlike Smart Objects that function with only some features, this resolution-independent editing is consistent throughout the program.

For those who know photo editing history, this concept will be familiar: It’s what the old program Live Picture offered. In essence, it delivers only the amount of data (or image pixels) needed to view and edit at the current zoom level. One of the major benefits of this feature is that it enables efficient memory management, so that Affinity apps don’t run out of RAM. However, when Affinity saves the edit information and applies (or renders) it to the full file, you might experience some delay, depending on the number of edits and the image size.


While rendering enormous files might take a bit of time, it shouldn’t interfere with your work. All operations are asynchronously designed to take full advantage of multicore processors. In other words, everything will run in parallel. For instance, while the RAW processor is developing your picture in one tab, you can paint on another in a separate tab.

Compatibility


Affinity Photo doesn’t have Corel PaintShop Pro’s extensive file compatibility. But it does open the most important file formats for photographers, plus a few surprises. These include the usual suspects, such as JPEG, PNG and DNG, as well as most other RAW, TGA and TIFF formats. You’ll also find support for Adobe Illustrator, Adobe FreeHand, PDF, Radiance HDR and others. Affinity Photo can even “roundtrip” Photoshop files, which means it can both open and save to PSD; therefore, Affinity’s proprietary file format isn’t the only way to save all layer and transparency information. Other save formats include JPEG, GIF, TIFF, PNG, PDF, SVG, WMF, EPS, EXR and HDR.

The Windows and Mac versions of Affinity Photo are identical. Serif plans to launch mobile versions for iOS and Android, too, though the company hasn’t announced a release date. Affinity Photos supports pressure-sensitive styluses/tablets that work on Macs or PCs, including Wacom and Microsoft Surface. In addition, it supports the new MacBook Pro's Touch Bar.

Bottom Line


No new program, and certainly not one from a comparatively tiny company such as Serif, is going to put a significant dent into Adobe Photoshop’s market position. Nor does Affinity Photo try to be everything that Photoshop is. In fact, Serif has purposely avoided including any Photoshop-like tools that aren’t directly related to photography. However, in terms of providing a truly full featured and powerful photo editing experience for professional photographers, Affinity Photo delivers. What’s more, at $49.99, it’s a downright bargain. We expect great things from this program and its sister programs Affinity Designer and Affinity Publisher.

Menino Courgette

A Minha Vida de Courgette é o grande destaque na Monstra de 2017.
Claude Barras  o realizador suíço reconhece que é um dos cineastas do momento e que A Minha Vida de Courgette é a animação que ficou na moda gostar.

História de um menino órfão que vai parar a um orfanato muito especial e onde descobre novos amigos, um rival e possivelmente uma namorada. 
O filme é uma animação em stopmotion com bonecos criados pelo próprio Barras. O realizador afirma que esta técnica é muito dispendiosa.




Consultei o seguinte site no dia 21 de Março de 2017.

A animação deslumbrante que mostra um buraco negro "sufocando" uma estrela



Uma impressionante nova animação lançada pela Nasa hoje revela a "espiral da morte" de uma estrela quando ela cai em um buraco negro.

As observações revelaram um padrão bizarro na energia de uma "chama de ruptura de maré" em uma galáxia distante, sugerindo que o buraco negro em seu centro de repente encontrou uma "estrela azarada cheia de matéria", e agora está "sufocando" os detritos infalíveis.

A nova animação mostra como os detritos da estrela colidem consigo, causando flutuações na luz ultravioleta e óptica, bem como emissões de raios-X.

O foco investigado no estudo por pesquisadores do MIT e da NASA Goddard Space Flight Center foi descoberto pela primeira vez em novembro de 2014.

As ondas de ruptura de maré são rajadas de atividade eletromagnética que acontecem quando um buraco negro destrói uma estrela próxima.

Mas, esse flare particular foi encontrado para emitir um estranho padrão de energia.

"Descobrimos mudanças de brilho em raios-X que ocorreram cerca de um mês depois que mudanças semelhantes foram observadas em luz visível e UV", disse Dheeraj Pasham, astrofísico do MIT.


"Achamos que isso significa que a emissão óptica e UV surgiu longe do buraco negro, onde fluxos elípticos de matéria em órbita entraram em colapso."

Simulações do evento sugeriram que esses "ecos" ocorreram como resultado de um encontro súbito com uma estrela.

Na nova animação, os cientistas traçaram como e onde esses diferentes comprimentos de onda foram produzidos.

Apelidado ASASSN-14li, o evento é pensado para ter sido produzido quando uma estrela parecida com o sol se aproximou do buraco negro de 3 milhões de massa solar.

As forças de maré convertem a estrela em um fluxo de detritos, que se acumula em um disco de acúmulo giratório antes de ser finalmente sugado para o horizonte de eventos, do qual não pode escapar.


Mas, em um evento como este, os destroços ultrapassam sua queda, arqueando para fora e colidindo com o fluxo de entrada, de acordo com a NASA.

"Devolvendo aglomerados de detritos atingem o fluxo entrante, o que resulta em ondas de choque que emitem luz visível e ultravioleta", disse Bradley Cenko, de Goddard, o investigador principal de Swift e membro da equipe de cientistas.

"À medida que esses aglomerados caem para o buraco negro, eles também modulam a emissão de raios X lá."

O fenômeno foi detectado por uma rede global de telescópios robóticos conhecidos como o All Sky automatizado Survey para SuperNovae (ASASSN), e outros telescópios mais tarde juntou-se à observação.

Isso inclui o telescópio de raios-X no satélite Swift da NASA.

Data: 21/03/2016

Stop-Motion demonstra a beleza da pintura

A animação Stop-Motion do Room-Size de Benjamin Moore demonstra a beleza da pintura, projeto criado para mostrar a nova pintura matte suave


Em esforços para promover a sua nova coleção de pintura Century, Benjamin Moore , um dos principais fabricantes de tintas americanas, lançou um filme de stop-motion que coloca a pintura na vanguarda de forma visualmente intrigante.


Criada pela Agência Martin em colaboração com a produtora GenPop , o vídeo vê uma sala branca transformada em um impressionante design gráfico, de hortelã-pimenta. Riscas de tinta vermelha profunda ziguezagueiam ao longo das paredes para finalmente formar uma silhueta de um rolo de pintura listrado vermelho e branco.





Comercializado como a primeira pintura matte suave do mundo, a coleção de pintura Century vem em 75 cores e é direcionado principalmente para a comunidade designer profissional. A pintura oferece uma experiência táctil semelhante à de uma luva de couro macio e será feita em pequenos lotes que serão pré-misturados e selados para garantir qualidade e controle de experiência.


Data da consulta: 21.03.2017


terça-feira, 21 de março de 2017

Food Network

Eis o último de quatro vídeos em stop motion do canal Food Network, este dedicado às almôndegas.

Bom proveito!


Stop motion geográfico prolonga experiência checa na Madeira e Porto Santo



Está aí o segundo episódio do vídeo dos ‘Skafex Bros’ . Um projecto que teve início há cerca de um mês pelas mãos de dois amigos checos, Jakub Skalnik e Ondrej Fukan, na viagem até à Madeira. A estadia destes turistas na Região prolongou-se durante 8 dias.

Neste segundo episódio, o mentor deste canal fundado na plataforma digital Youtube diz não haver preferência entre a Madeira e o Porto Santo, indicando as diferenças entre estes dois destinos insulares.

O turista checo é o narrador deste vídeo em ‘stop-motion’ tendo visitado a Região no ano passado, decidindo agora viajar com o projecto já em mente. “Decidi fazer este vídeo com um mapa para ajudar os turistas a saber onde ir quando visitarem a Madeira”, confidenciou Ondrej, que agradeceu em nome do seu paladar à boa comida que aqui se faz e produz. “A espada preta, as frutas exóticas ou o bolo do caco, toda as comidas eram deliciosas”, elogiou.

Este é um projecto a longo termo pois todos os envolvidos são estudantes e “não existe muito tempo ou dinheiro”, embora Ondrej revele querer dar o seu melhor.

Data da consulta: 21.03.2017

Artigo sobre os 83 melhores tutoriais de photoshop segundo a revista Digital Arts




Photoshop em tempo real? iPhone 8 com realidade aumentada



Quem acompanha as notícias de Tim Cook e sua equipe já deve ter ouvido o chefão da Apple falar, não apenas uma ou duas, mas algumas boas vezes, que aposta bastante nas duas novas tendências da tecnologia: as realidades aumentada e virual. E para fazer coro aos rumores, a Bloomberg trouxe uma informação interessante para os simpatizantes da Maçã: há planos de integrar realidade aumentada já no próximo iPhone

A revista diz que a empresa está desenvolvendo maneiras de tirar fotos e depois substituir a profundidade da imagem ou de objetos específicos que a compõem. Uma das tentativas da Apple no processo é isolar um objeto em uma imagem e permitir que ele seja girado a até 180 graus, sem alterar o restante da composição da foto. 

Outro recurso em desenvolvimento seria usar a realidade virtual para adicionar objetos em fotos, por exemplo, colocando chapéus em pessoas, ou simulando que a pessoa da foto está em um local famoso do mundo. Seria algo como um Photoshop em tempo real para adicionar efeitos virtuais à la Snapchat Lenses. Segundo a Bloomberg, a Apple já contratou "centenas de engenheiros", inclusive vindos da equipe HoloLens, da Microsoft, para trabalhar em tecnologias de realidade aumentada.


Para o analista mais cotado para tratar de assuntos da Apple, Ming-Chi Kuo, a câmera nova vai mesmo dar as caras. Ele acredita que ela vai ser munida de um projetor infravermelho e um receptor, capaz de funcionar da mesma forma que o Kinect (sensor de movimentos do Xbox 360/Microsoft) e rastrear todo um campo em 3D, com holografia. E como Tim Cook sempre diz: a realidade aumentada vai ultrapassar a realidade virtual. Pelo menos nos planos dele. 

Seja como for, de uma coisa podemos ter certeza: a câmera do próximo iPhone vai ser inovadora


Data da consulta: 21.03.2017


Animação e Realidade Virtual em debate pela primeira vez em Portugal



No âmbito da MONSTRA – Festival de Animação de Lisboa, realizou-se no sábado (18), no Cinema São Jorge, um painel que discutiu, pela primeira vez em Portugal, a temática da Animação e Realidade Virtual. A B!T Magazine fez parte deste debate e esteve a acompanhar a sessão. Em seguida, houve tempo para experimentar vários projetos e ver vários filmes especialmente concebidos para esta tecnologia imersiva.


A talk contou com a presença de Rachid El Guerrab, project manager da Google Spotlight Stories pertencente ao Google ATAP (Advanced Technology and Projects group); Tim Ruffle, realizador da Aardman Animation; Luke Ritchie, Head of Interactive Arts do Nexus Studios; Rui Guedes, fundador da Ground Control Games e Rafael Antunes, professor da Universidade Lusófona e responsável pela tecnologia 360º VR no grupo Impresa. A discussão foi modera por Susana Marvão em representação da B!T Magazine.

Rachid El Guerrab falou de como o projeto da Google Spotlight Stories quis explorar a tecnologia dos smartphones para oferecer algo diferente aos utilizadores e traçou a evolução tecnologia VR dentro da animação. O project manager indicou ainda que um dos desafios que encontram é conseguir “levar” o utilizador pela história de forma que não fiquem perdidos na narrativa. Esta iniciativa do gigante tecnológico americano é responsável por filmes como Pearl, candidato ao Óscares, ou Rain or Shine, o mais imersivo até agora. Estes foram alguns dos filmes que podemos assistir no Cinema São Jorge, e acreditem quando dizemos que fale a pena ver.

Tim Ruffle realizou a sua apresentação com base no filme da Aardman, o Special Delevery . Abordou o processo de desenho das personagens e do local em onde se passa o filme, um condomínio. Este era também um dos filmes presentes na área de demonstrações. O realizador indicou ainda que desenvolvimento de conteúdos para realidade virtual é um processo de tentativa e erro até se encontrar a fórmula certa.

Luke Ritchie afirmou que é difícil fazer a passagem dos filmes tradicionais para filmes 3D e em VR e referiu vários projetos dos Nexus Studio, nomeadamente o 1600 que usa uma nota de 1 dólar para retratar um ano de vida na Casa Branca (1600 Pennsylvania Av) através de realidade virtual e aumentada.

Rui Guedes falou da história da startup Ground Control Games e de como esta foi a primeira empresa portuguesa a criar um jogo de realidade virtual e a ter um jogo na loja da Oculus. O portuense deu a sua perspectiva da utilização de VR na animação dentro da área dos videojogos. A empresa de gaming é também responsável por várias iniciativas interativas para diversas entidades portuguesas. Uma delas é o Porto.VR360, realizada a pedido da Câmara Municipal do Porto, em que é possível passear pela cidade e pela sua história de forma imersiva.

Rafael Antunes, por sua vez, apresentou quais as diferenças entre realidade virtual e aumentada, como tem sido a taxa de adopção das tecnologias e o que está a ser feito na área de 360º e realidade virtual no grupo Impresa. O professor da Lusófona mostrou também projetos dos seus alunos e indicou que considera que “ainda estamos a aprender a forma de contar histórias e fazer narrativas em realidade virtual”.

No final, a moderadora fez um resumo das três principais conclusões do debate que foram: a necessidade de um modelo de negócio para o uso da realidade virtual pois de outra forma, os investimentos na área podem parar a médio prazo, a aposta na qualidade conteúdos e a melhoria da taxa de adopção da tecnologia. Mas foi unânime que para isto acontecer, de facto, a qualidade da narrativa e dos conteúdos é fundamental.


Data: 21/03/2017

Isle of Dogs | Novo stop-motion de Wes Anderson será inspirado em Akira Kurosawa



Wes Anderson está de volta à cadeira de diretor com seu novo projeto Isle of Dogs. O filme, que levará o diretor de volta ao mundo do stop-motion pela primeira vez desde 2009 (quando dirigiu O Fantástico Sr. Raposo), se passará no Japão e contará a história de um jovem na busca pelo seu cão desaparecido.



Segundo o The Film Stage, Anderson revelou duas inspirações para o novo filme, a primeira delas sendo os especiais de natal feitos para a TV americana.

“Eu adoro esses especiais de natal da TV”, explicou. “Eu sempre gostei das criaturas nos filmes estilo [Ray] Harryhausen mas, falando sério, os especiais de Natal foram o que, provavelmente, me fizeram querer entrar nessa”.

E, ainda, sua segunda fonte de inspiração foi ninguém menos do que Akira Kurosawa, aclamado e já falecido diretor japonês.


“O filme é mais influenciado pelo Akira Kurosawa do que por qualquer outro filme de stop-motion”.

Isle of Dogs está previsto para estrear em 2018 e traz, no elenco, nomes como Bill Murray, Tilda Swinton, Jeff Goldblum, Edward Norton, Greta Gerwig, Scarlett Johansson, Bryan Cranston e Yoko Ono.

Filme Português considerado melhor curta metragem em Festival de Animação

O Filme "Estilhaços", do cineasta português José Miguel Ribeiro, recebeu no dia 5 de março de 2017 o prémio da imprensa para Melhor Curta-Metragem no Anima-Festival de Cinema de Animação de Bruxelas.

Este filme relata a guerra colonial e os efeitos do stress pós-traumático em contexto familiar, o filme foi o único português selecionado para a competição internacional do festival belga.

"Estilhaços" combina a imagem real, desenho animado e stopmotion. Entre ficção e documentário, o filme cruza duas perspetivas sobre a guerra.



Consultei a Wikipédia no dia 21 de Março de 2017.

segunda-feira, 20 de março de 2017

Este stop motion demostra gestos ofensivos de diferentes países



Já conhece os gestos ofensivos de todos os países do mundo? Então nem pense em fazer o sinal de paz e amor na Nova Zelândia…



Nei Valente, um designer brasileiro atualmente morando em Nova York e Laila Varaschin, uma fotógrafa brasileira atualmente morando em Brasília, tiveram a ideia de um projeto, eles decidiram se juntar para criar um vídeo com interessantes animações em stop motion de gestos ofensivos utilizados em vários países e que as vezes podem não ser nada ofensivos para nós Brasileiros, mas em outros países são considerados altamente ofensivos e podem lhe causar sérios problemas.

Veja abaixo e tome nota para sua próxima viagem. O vídeo é simples, mas altamente recomendado para aqueles que vão viajar para o exterior.


Consultado em 20.Março.2017

domingo, 19 de março de 2017

ChromaKey (GreenScreen)

O GreenScreen é uma tecnica que faz um efeito visual usado pela produção que compõem duas imagens/vídeos em e transmitem as duas juntas baseado nas cores. Esta técnica é bastante usada em vários campos para remover o background de um objecto particularmente nas industrias de noticiários, motion picture. Isto faz com que o background da imagem seja transparente, permitindo que seja filmado separadamente do background que vai ser usado, isto aplica se a imagens estáticas ou filmagens. Esta técnica é comum na produção de video e posterior, isto pode ser feito com fundos de qualquer cor que seja uniforme e distinta, porem o ver e o azul são os mais comuns porque são as cores mais distintas no "hue" desde o cor de pele dos homens. Nenhuma parte o objecto a ser filmado/fotografado pode ter a mesma cor usada no como chromakey.

Porquê que não se pode ter objectos incluído a roupa com a cor igual á cor que está a ser usada como ChromaKey? A câmara que está a gravar vai processar a cor escolhida, normalmente verde, e tudo o que receber com essa cor vai passar a ser fundo invisível.

Onde vemos mais isto por exemplo no noticiário de meteorologia, onde o apresentador normalmente está á frente de um campo CGI durante o evento, e enquanto está a frente da chromakey diferentes mapas são colocados atrás isto ficando uma só imagem como se o apresentador tivesse a frente do mapa.

Porquê que não se pode ter objectos incluído a roupa com a cor igual á cor que está a ser usada como ChromaKey? A câmara que está a gravar vai processar a cor escolhida, normalmente verde, e tudo o que receber com essa cor vai passar a ser fundo invisível.

um pequeno tutorial para quem queira usar:


Divisão Q, da IBM, inclui computador quântico de 50 qubits



Personagens chamados de Q no cinema e na TV foram retratados como sendo excepcionais. Nos filmes de James Bond, Q era o integrante do MI-6, o serviço de inteligência britânico, responsável pela produção das armas e gadgets futuristas. Já em Star Trek, Q era a entidade onipotente, com poderes ilimitados.
Um novo programa de computação quântica chamado Q, da IBM será notável pelos seus próprios méritos. Em poucos anos, a IBM planeia criar um computador quântico com mais de 50 qubits, o que deve empurrar os computadores convencionais para um pouco mais perto do lixo.
O programa IBM Q fornecerá consultoria e serviços de computação quântica aos usuários, num modelo muito parecido com o Watson. Mas em vez de usar computadores convencionais, como o Watson, o Q usará computadores quânticos.

O computador quântico de 50 qubits será 10 vezes maior do que um sistema de 5 qubits já instalado pela IBM. E o novo sistema será capaz de fazer coisas que computadores convencionais não podem fazer, incluindo descobertas científicas, disse a IBM.






Os computadores quânticos são radicalmente diferentes dos PCs convencionais e podem, em última instância, substituir os PCs e servidores atuais. Eles oferecem uma maneira de superar os limites da computação clássica.
A IBM está construindo computadores quânticos mais rápidos para mostrar que esses sistemas não são sonhos teóricos. O objetivo final da empresa é construir um computador quântico universal com milhares de qubits para executar uma ampla gama de tarefas de computação.
O computador quântico de 50 bits tem poder suficiente para desenvolver algoritmos e começar a resolver alguns problemas reais, disse Scott Crowder, vice-presidente e diretor de tecnologia da computação quântica da IBM Systems.

A IBM também desenvolveu um novo tipo de computador baseado em chips inspirados no cérebro como o seu processador experimental TrueNorth. O NS16e percorreu um longo caminho e também poderia ser finalmente oferecido através de um programa especializado. Esses computadores são projetados mais para tarefas como a aprendizagem de máquina.
A IBM também oferecerá SDKs (kits de desenvolvimento de software) e APIs (interfaces de programação de aplicativos) para que o código escrito usando interfaces de programação populares possam ser exportado para computadores quânticos.




Fonte: http://idgnow.com.br/ti-corporativa/2017/03/06/programa-q-da-ibm-inclui-computador-quantico-de-50-qubits/

Como é que os carros tornar-se-ão a próxima grande plataforma de conectividade



O futuro da mobilidade passará pelos veículos conectados. Invariavelmente. Segundo a empresa de consultoria BI Intelligence, 381 milhões de carros conectados estarão nas ruas até 2020, um crescimento considerável tendo em vista os 36 milhões que já circulavam em 2015.

Num cenário no qual carros assumem o papel de uma grande plataforma de conectividade, que permite compartilhar informações entre infraestruturas, pessoas e coisas como outros veículos, a Internet das Coisas empresta aqui a sua vocação para uma apropriada e emergente Internet dos Carros. Para a indústria, carros conectados tornaram-se, a sua devida proporção, uma espécie de smartphone para o qual serviços como entretenimento, entrega de tecnologia da informação, serviços financeiros e até mesmo o varejo poderão passar por ele. Uma visão que expande essencialmente a variedade e os modelos de negócios do próprio mercado automóvel.









A SAP tem nos últimos anos lançado uma série de recursos que se integram a sua oferta de cloud para a indústria automotiva, incluindo aí parcerias com montadoras e outras companhias que atendem o setor. Em 2015, a empresa de software alemã lançou a SAP Vehicles Network Solution, plataforma para criar soluções de mobilidade e aplicativos dedicados ao cliente final, o motorista. Ao dar infraestrutura, dados e insights em tempo real, a SAP consegue facilitar a criação de apps e uma nova gama de serviços automotivos conectados. Entre os exemplos, pense em estacionamentos e portões conectados, postos de gasolina, restaurantes e redes de hotéis. Entre as parcerias firmadas estão acordos com Bosch, Shell, Toyota, Volkswagen e BMW que também integram a SAP Leonardo, o portfólio de IoT da alemã.

Os esforços para o crescente mercado de carros conectados também vão de encontro com um recente anúncio da companhia. No ano passado, a SAP revelou planos de investir 2 mil milhões de euros para acelerar o campo da Internet das Coisas. Novos modelos de negócio, a indústria 4.0 e até mesmo a forma como pessoas vivem, trabalham e se relacionam com as suas coisas são um campo vasto para explorar o alcance da Internet das Coisas e, claro, a dos carros.




Fonte: http://idgnow.com.br/ti-corporativa/2017/03/13/como-carros-se-tornarao-a-proxima-grande-plataforma-de-conectividade/

Linux

  O Linux é um sistema operativo dedicado para computadores com a intenção de ser um modelo grátis e com a base de dados aberta para qualquer utilizador possa fazer o que quiser na configuração do sistema. Foi lançado em 17 de setembro de 1991 pelo Linus Torvalds. Foi originalmente desenhado para computadores pessoais baseado na arquitetura do Intel x86, mas acabou por ter um porte para outros sistemas como o Android para telemoveis. O linux tem a base de instalação maior de todos os propositos gerais dos sistemas operativos. Também é o sistema mais utilizado nos servidores, mas em computadores não é assim muito utilizado. O linux também corre sistemas afirmados, em que os dispositivos são normalmente construidos para firmfram (tipo de software que premite controlar, monotorizar e mexer na informação dos produtos e sistemas), e semelhantes aparelhos como routers de internet, televisões, consolas de vídeo jogos e smartwatches. Muitos smartphones e tablets correm android ou outro derivado de linux.
O crescimento do linux é um exemplo da utilidade de ter uma fonte aberta e grátis por causa da colaboraçao. É bastante usado para reforçar a origem que o codigo pode ser usado, modificado e distribuido por qualquer pessoa dentro dos termos da licença, normalmente o linux é empacotado de forma a saber a sua distribuiçao para o uso de computadores e servidores.
Normalmente os programadores usam o linux por ter a base de dados aberta, isso faz com que o sistema operativo seja completamente programavel e também puxa muito menos pelo processador o que facilita o processo de programação e funcionalidade no caso de servidores.

pesquisa : https://en.wikipedia.org/wiki/Linux

Adobe Animate

O Adobe Animate (antigamente chamado de adobe flash e shockwave flash) é uma plataforma multimédia de software usado para produzir o que enriquece as aplicações na Internet, desktop e de dispositivos moveis. O flash mostra texto, vectores gráficos e dá nos possibilidade de usar animações em video jogos por exemplo. Também permite a transmissão de audio e video e pode registar os inputs que fazemos no teclado, microfone, câmara, teclado ou outros dispositivos externos.
Os gráficos e animações de flash usam o Adobe Anime, os criadores de software normalmente produzem as animações com o adobe flash builder e outros como FlashDevelop e muitos mais.
Os utilizadores normalmente vêm o flash através do Flash Player ( que é o usado nos browsers), AIR ( aplicações de desktop/mobile) entres outros sistemas third party.
O flash é de certa forma essencial para a transmissão de video e interactividade multimédia nos sites, porquê de certa forma? Há outras opções mas o flash está bastante optimizado e tem actualizações constantes o que mostra o trabalho da equipa para tentar que se torne perfeito.


pesquisa: https://en.wikipedia.org/wiki/Adobe_Flash



Food Network

A terceira de quatro animações presentemente a ser mostradas no canal de televisão por cabo The Food Network.

Este filme evidencia uma figura feminina em 3D. Ela foi impressa em Digits to Widgets, em Camden.

É a história de uma senhora mandona que quer andar em torno de um prato. Será que cumpre o seu desejo? É melhor verificar.

Fazer um filme stop motion ao ar livre não é ideal devido, por exemplo, às nuvens que vão passando, às crianças de dois anos de idade que aparecem e atiram todos os carrinhos para o cenário. Mas no fim tudo acabou bem.


Javascript: loop for

O loop for é uma ferramenta bastante útil quando se pretende executar um determinado bloco de código várias vezes em Javascript. A sua sintaxe é a seguinte.

for (declaração 1; declaração 2; declaração 3) {
bloco de código a ser executado
}

  • A declaração 1 é executada uma vez antes do loop começar. Normalmente é utilizada para declarar a variável usada no loop. 
  • A declaração 2 define uma condição. Se o valor desta expressão boleana for true a declaração 3 é executada e o loop continua. Caso o valor seja false o loop é encerrado.
  • A declaração 3 corresponde ao incremento ( positivo ou negativo ), sendo executada no final de cada passagem através do loop.

Breve história do CSS

Com a evolução dos recursos de programação, as páginas da internet adotavam cada vez mais estilos e variações, a fim de se tornarem mais elegantes e atrativas para os usuários. Neste contexto, foram criadas novas tags e atributos de estilo para o HTML, de tal modo que esta linguagem passou a exercer tanto a função de estruturar o conteúdo de uma página quanto de apresentá-lo ao usuário final. 

Contudo, esta abordagem trazia vários problemas para os web designers: não havia uma forma de definir, por exemplo, um padrão para todos os cabeçalhos ou conteúdos em diversas páginas, ou seja, todas as alterações teriam que ser feitas manualmente, uma a uma.

A partir destas complicações, nasceu o CSS. Foi proposto pela primeira vez, em 1994, por Hakon Lie, e, em 1995, foi desenvolvido pelo W3C ( World Wide Web Consortium ).









Com a criação do CSS foi possível a separação do conteúdo e formato de um documento da sua apresentação. Isto proporcionou uma maior flexibilidade e controlo na especificação das características de um site, permitiu o compartilhamento de formato e reduziu a repetição no conteúdo estrutural de uma página.




As linguagens de marcação passaram novamente a exercer sua função de marcar e estruturar o conteúdo de uma página,  enquanto o CSS encarregou-se da aplicação dos estilos necessários para a aparência dela, por meio da criação de um arquivo externo que permite alterações de estilo em todas as páginas de um site de forma fácil e rápida.