image

Bootcamps ilimitados + curso de inglês para sempre

80
%OFF
Article image
Maiza lavor
Maiza lavor17/12/2023 13:53
Compartilhe
Microsoft 50 Anos - Prompts InteligentesRecomendados para vocêMicrosoft 50 Anos - Prompts Inteligentes

USO DE LINGUAGEM DE PROGRAMAÇÃO EM PYTHON E C NO ENSINO DE MATRIZES

  • #Python

O uso da linguagem de programação Python no ensino de matrizes pode ser uma abordagem eficaz para auxiliar os alunos a compreenderem os conceitos e propriedades das matrizes de forma prática e interativa.

As matrizes são uma estrutura de dados altamente utilizadas em ciências exatas e computação. É importante que os estudantes de todas as idades tenham uma base sólida em matrizes, pois elas são fundamentais na resolução de problemas de diversas áreas.

Com o uso de tecnologias, o ensino das matrizes pode se tornar mais dinâmico e interativo. Nesse sentido, a linguagem de programação Python se apresenta como uma excelente ferramenta para o ensino de matrizes.

Além disso, é importante relacionar a matemática com situações reais e mostrar aos estudantes como ela está presente no seu dia a dia. Isso ajuda a despertar o interesse e a motivação dos alunos, além de demonstrar a relevância prática da disciplina. Outra estratégia eficaz é abordar a matemática de forma progressiva, começando pelos conceitos básicos e avançando gradualmente para tópicos mais complexos.

O uso linguagem de programação C no ensino de matrizes pode envolver desafios e possibilidade especificas que surgem ao abordar essa abordagem. A linguagem C é conhecida por sua complexidade e requer uma compreensão sólida de conceitos de baixo nível, como gerenciamento de memória e ponteiros.

Por isso para iniciantes que estão apenas começando a aprender programação ou matrizes podem ter uma certa complexidade inicial que podem desencorajar alguns estudantes. Vai depender do magistério como aborda a linguagem de programação na sala de aula.

 

soma feita

# Criar matrizes 3x3 A e B

A = [[0, 0, 0],

   [0, 0, 0],

   [0, 0, 0]]

B = [[0, 0, 0],

   [0, 0, 0],

   [0, 0, 0]]

# Receber os valores da matriz A

print("Digite os valores da matriz A:")

for i in range(3):

  for j in range(3):

    A[i][j] = int(input(f"Digite o valor de A[{i}][{j}]: "))

# Receber os valores da matriz B

print("Digite os valores da matriz B:")

for i in range(3):

  for j in range(3):

    B[i][j] = int(input(f"Digite o valor de B[{i}][{j}]: "))

# Calcular e exibir a soma A+B

soma = [[0, 0, 0],

    [0, 0, 0],

    [0, 0, 0]]

for x in range(3):

  for y in range(3):

    soma[x][y] = A[x][y] + B[x][y]

print("A + B:")

for row in soma:

  print(row)

multiplicação de matrizes- codigos feitos

#Criar matrizes 3x3 A e B

A = [[0, 0, 0],

   [0, 0, 0],

   [0, 0, 0]]

B = [[0, 0, 0],

   [0, 0, 0],

   [0, 0, 0]]

# Receber os valores da matriz A

print("Digite os valores da matriz A:")

for i in range(3):

  for j in range(3):

    A[i][j] = int(input(f"Digite o valor de A[{i}][{j}]: "))

# Receber os valores da matriz B

print("Digite os valores da matriz B:")

for i in range(3):

  for j in range(3):

    B[i][j] = int(input(f"Digite o valor de B[{i}][{j}]: "))

# Calcular e exibir a multiplicação A*B

multiplicacao = [[0, 0, 0],

         [0, 0, 0],

         [0, 0, 0]]

for x in range(3):

  for y in range(3):

    for k in range(3):

      multiplicacao[x][y] = A[x][y] * B[x][y]

print("A*B:")

for row in multiplicacao:

  print(row)

determinantes

#Criar matrizes 3x3 A e B

A = [[0, 0, 0],

   [0, 0, 0],

   [0, 0, 0]]

B = [[0, 0, 0],

   [0, 0, 0],

   [0, 0, 0]]

# Receber os valores da matriz A

print("Digite os valores da matriz A:")

for i in range(3):

  for j in range(3):

    A[i][j] = int(input(f"Digite o valor de A[{i}][{j}]: "))

# Receber os valores da matriz B

print("Digite os valores da matriz B:")

for i in range(3):

  for j in range(3):

    B[i][j] = int(input(f"Digite o valor de B[{i}][{j}]: "))

# Calcular e exibir o determinante de A

det = A[0][0] * (A[1][1] * A[2][2] - A[1][2] * A[2][1])

det -= A[0][1] * (A[1][0] * A[2][2] - A[1][2] * A[2][0])

det = A[0][2] * (A[1][0] * A[2][1] - A[1][1] * A[2][0])

print("Determinante de A:")

print(det)

Compartilhe
Recomendados para você
Suzano - Python Developer
BairesDev - Machine Learning Practitioner
Santander - Cibersegurança #2
Comentários (0)
Recomendados para vocêMicrosoft 50 Anos - Prompts Inteligentes