Type

Data source

Date

Thumbnail

Search results

6 records were found.

As culturas frutícolas requerem uma gestão otimizada de todos os fatores de produção para alcançarem níveis elevados de produtividade. O controlo das infestantes é uma prática que visa diminuir a competição que estas exercem com a cultura pelos fatores água e nutrientes, que é realizada por diferentes tipos de manutenção do solo, sendo o mais comum o sistema de aplicação de herbicida na linha e enrelvamento na entrelinha. Contudo, observa-se sempre a presença de algumas infestantes que não são eliminadas na fase inicial. Pretende-se assim desenvolver equipamento robótico para fazer um controlo particularizado destas infestantes evoluindo no sentido de uma agricultura de precisão com uma gestão mais eficaz e sustentável dos meios de produção.
A robótica autónoma destinada a operações de análise e atuação nas culturas agrícolas tem vindo a evoluir, existindo exemplos de monitorização de culturas, de rega automatizada (que integra diferente informação edáfica e meteorológica), de aplicação localizada de fertilizantes e de herbicidas, de colheita automatizada e de manuseamento/transporte de cargas. Este projeto pretendeu conceber um sistema robotizado para previsão da colheita e aplicação particularizada de herbicida para controlo de infestantes. O sistema descrito neste artigo é composto por robôs autónomos, terrestre e aéreo com visão computacional por câmaras RGB e multiespectrais, que possibilitam i) deteção e reconhecimento de infestantes para aplicação precisa de produtos fitofarmacêuticos, ii) deteção e reconhecimento de frutos em árvores e copas destas, para caracterização das plantas e estimativa de produção. O reconhecimento, quer seja de infestantes como de frutos, é realizado através do método de inteligência artificial Faster R-CNN, aplicado aos datasets de imagens recolhidas em campo. No reconhecimento das infestantes é calculado o seu centróide, para onde é deslocado o bico de pulverização, anexo ao braço robótico cartesiano incorporado no robô terrestre autónomo. A função de reconhecimento dos frutos conduz à sua contagem, permitindo uma previsão da produção. Esta deteção é dificultada pela variação da iluminação natural, oclusão de frutos causada por folhas, ramos e outros frutos e múltiplas deteções da mesma fruta em imagens sequenciais. Os resultados experimentais de deteção de infestantes e de frutos em imagem de vídeo indicam uma precisão média de 85%. A estimativa da produção é complementada pela previsão do volume da copa da árvore obtido por aquisição de imagem captada via câmara montada em drone, destinada a suportar modelos empíricos de carga das árvores. A função de pulverização de infestantes é complementada com a capacidade de apanha de frutos caídos no chão. Pretende-se assim contribuir para um sistema de produção mais sustentável através da redução de utilização de produtos fitofarmacêuticos e simultaneamente apoiar o produtor na gestão da carga do pomar com reflexos na gestão da cadeia comercial.
Fruit detection is crucial for yield estimation and fruit picking system performance. Many state-of-the-art methods for fruit detection use convolutional neural networks (CNNs). This paper presents the results for peach detection by applying a faster R-CNN framework in images captured from an outdoor orchard. Although this method has been used in other studies to detect fruits, there is no research on peaches. Since the fruit colors, sizes, shapes, tree branches, fruit bunches, and distributions in trees are particular, the development of a fruit detection procedure is specific. The results show great potential in using this method to detect this type of fruit. A detection accuracy of 0.90 using the metric average precision (AP) was achieved for fruit detection. Precision agriculture applications, such as deep neural networks (DNNs), as proposed in this paper, can help to mitigate climate change, due to horticultural activities by accurate product prediction, leading to improved resource management (e.g., irrigation water, nutrients, herbicides, pesticides), and helping to reduce food loss and waste via improved agricultural activity scheduling.
Precision irrigation and optimization of water use have become essential factors in agricul- ture because water is critical for crop growth. The proper management of an irrigation system should enable the farmer to use water efficiently to increase productivity, reduce production costs, and maxi- mize the return on investment. Efficient water application techniques are essential prerequisites for sustainable agricultural development based on the conservation of water resources and preservation of the environment. In a previous work, an off-policy deep reinforcement learning model, Deep Q-Network, was implemented to optimize irrigation. The performance of the model was tested for tomato crop at a site in Portugal. In this paper, an on-policy model, Advantage Actor–Critic, is implemented to compare irrigation scheduling with Deep Q-Network for the same tomato crop. The results show that the on-policy model Advantage Actor–Critic reduced water consumption by 20% compared to Deep Q-Network with a slight change in the net reward. These models can be developed to be applied to other cultures with high production in Portugal, such as fruit, cereals, and wine, which also have large water requirements.
The concept of the Internet of Things (IoT) in agriculture is associated with the use of high-tech devices such as robots and sensors that are interconnected to assess or monitor conditions on a particular plot of land and then deploy the various factors of production such as seeds, fertilizer, water, etc., accordingly. Vine trunk detection can help create an accurate map of the vineyard that the agricultural robot can rely on to safely navigate and perform a variety of agricultural tasks such as harvesting, pruning, etc. In this work, the state-of-the-art single-shot multibox detector (SSD) with MobileDet Edge TPU and MobileNet Edge TPU models as the backbone was used to detect the tree trunks in the vineyard. Compared to the SSD with MobileNet-V1, MobileNet-V2, and MobileDet as backbone, the SSD with MobileNet Edge TPU was more accurate in inference on the Raspberrypi, with almost the same inference time on the TPU. The SSD with MobileDet Edge TPU achieved the second-best accurate model. Additionally, this work examines the effects of some features, including the size of the input model, the quantity of training data, and the diversity of the training dataset. Increasing the size of the input model and the training dataset increased the performance of the model.
Within the scope of precision agriculture, many applications have been developed to support decision making and yield enhancement. Fruit detection has attracted considerable attention from researchers, and it can be used offline. In contrast, some applications, such as robot vision in orchards, require computer vision models to run on edge devices while performing inferences at high speed. In this area, most modern applications use an integrated graphics processing unit (GPU). In this work, we propose the use of a tensor processing unit (TPU) accelerator with a Raspberry Pi target device and the state-of-the-art, lightweight, and hardware-aware MobileDet detector model. Our contribution is the extension of the possibilities of using accelerators (the TPU) for edge devices in precision agriculture. The proposed method was evaluated using a novel dataset of peaches with three cultivars, which will be made available for further studies. The model achieved an average precision (AP) of 88.2% and a performance of 19.84 frames per second (FPS) at an image size of 640 × 480. The results obtained show that the TPU accelerator can be an excellent alternative for processing on the edge in precision agriculture.